Kuota dan batas
Dokumen ini mencantumkan kuota dan batas sistem yang berlaku untuk BigQuery. Kuota menentukan jumlah resource bersama yang dapat dihitung dan dapat Anda gunakan, dan ditentukan oleh layanan Google Cloud seperti BigQuery. Batas sistem adalah nilai tetap yang tidak dapat diubah.
Google Cloud menggunakan kuota untuk membantu memastikan keadilan dan mengurangi lonjakan penggunaan dan ketersediaan resource. Kuota membatasi jumlah resource Google Cloud yang dapat digunakan project Google Cloud Anda. Kuota berlaku untuk berbagai jenis resource, termasuk komponen hardware, software, dan jaringan. Misalnya, kuota dapat membatasi jumlah panggilan API ke layanan, jumlah load balancer yang digunakan secara bersamaan oleh project Anda, atau jumlah project yang dapat Anda buat. Kuota melindungi komunitas pengguna Google Cloud dengan mencegah kelebihan beban layanan. Kuota juga membantu Anda mengelola resource Google Cloud Anda sendiri.
Sistem Kuota Cloud melakukan hal berikut:
- Memantau pemakaian produk dan layanan Google Cloud oleh Anda
- Membatasi pemakaian resource tersebut
- Memberikan cara untuk meminta perubahan pada nilai kuota
Pada umumnya, saat Anda mencoba menggunakan resource lebih dari kuota yang diizinkan, sistem akan memblokir akses ke resource, dan tugas yang Anda coba lakukan akan gagal.
Kuota umumnya berlaku di level project Google Cloud. Penggunaan resource di satu project tidak memengaruhi kuota yang tersedia di project lain. Dalam project Google Cloud, kuota dibagikan ke semua aplikasi dan alamat IP.
Ada juga batas sistem pada resource BigQuery. Batas sistem tidak dapat diubah.
Secara default, kuota dan batas BigQuery berlaku per project. Kuota dan batas yang berlaku pada dasar yang berbeda ditunjukkan sebagai berikut; misalnya, jumlah maksimum kolom per tabel, atau jumlah maksimum permintaan API serentak per pengguna. Kebijakan tertentu bervariasi bergantung pada ketersediaan resource, profil pengguna, histori Service Usage, serta faktor lainnya, dan dapat berubah tanpa pemberitahuan.
Pengisian kuota
Kuota harian diisi ulang secara berkala sepanjang hari, yang mencerminkan intent-nya untuk memandu perilaku pembatasan kapasitas. Pemuatan ulang sesekali juga dilakukan untuk mencegah gangguan lama saat kuota habis. Lebih banyak kuota biasanya tersedia dalam hitungan menit daripada pengisian ulang secara global sekali sehari.
Meminta penambahan kuota
Untuk menyesuaikan sebagian besar kuota, gunakan Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Meminta penyesuaian kuota.
Untuk panduan langkah demi langkah melalui proses permintaan penambahan kuota di Konsol Google Cloud, klik Guide me:
Membatasi penggunaan kuota
Untuk mempelajari cara membatasi penggunaan resource tertentu dengan membuat penggantian kuota, lihat Membuat penggantian kuota.
Izin yang diperlukan
Untuk melihat dan mengupdate kuota BigQuery di Konsol Google Cloud, Anda memerlukan izin yang sama seperti kuota Google Cloud. Untuk informasi selengkapnya, lihat izin kuota Google Cloud.
Memecahkan masalah
Untuk mengetahui informasi tentang cara memecahkan masalah error yang terkait dengan kuota dan batas, baca artikel Memecahkan masalah error kuota BigQuery.
Tugas
Kuota dan batas berlaku untuk tugas yang dijalankan BigQuery atas nama Anda, baik dijalankan dengan menggunakan Konsol Google Cloud, alat command line bq, maupun secara terprogram menggunakan REST API atau library klien.
Tugas kueri
Kuota berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query
dan jenis kueri jobs.insert
:
Kuota | Default | Catatan |
---|---|---|
Penggunaan kueri per hari | Tak terbatas | Tidak ada batas jumlah byte yang dapat diproses oleh
kueri dalam sebuah project. Lihat kuota di Konsol Google Cloud |
Penggunaan kueri per hari per pengguna | Tak terbatas | Tidak ada batas jumlah byte yang dapat diproses kueri pengguna setiap hari. Lihat kuota di Konsol Google Cloud |
Byte lintas region kueri gabungan Cloud SQL per hari | 1 TB | Jika
lokasi pemrosesan kueri BigQuery dan lokasi instance Cloud SQL berbeda, maka kueri Anda adalah kueri lintas region. Project Anda dapat berjalan hingga 1 TB dalam kueri lintas region
per hari. Lihat Kueri gabungan Cloud SQL. Lihat kuota di Konsol Google Cloud |
Byte per hari yang ditransfer lintas-cloud | 1 TB |
Anda dapat mentransfer hingga 1 TB data per hari dari bucket Amazon S3 atau dari Azure Blob Storage. Untuk mengetahui informasi selengkapnya, lihat
Transfer lintas-cloud dari Amazon S3 dan Azure.
Lihat kuota di Konsol Google Cloud |
Batas berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query
dan jenis kueri jobs.insert
:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kueri interaktif dalam antrean | 1.000 kueri | Project Anda dapat mengantrekan hingga 1.000 kueri interaktif. Kueri interaktif tambahan yang melebihi batas ini akan menampilkan error kuota. |
Jumlah maksimum kueri batch dalam antrean | 20.000 kueri | Project Anda dapat mengantrekan hingga 20.000 kueri batch. Kueri batch tambahan yang melebihi batas ini akan menampilkan error kuota. |
Jumlah maksimum kueri interaktif serentak terhadap sumber data eksternal Bigtable | 16 kueri | Project Anda dapat menjalankan hingga enam belas kueri serentak terhadap sumber data eksternal Bigtable. |
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh | 10 kueri | Anda dapat menjalankan hingga 10 kueri serentak dengan fungsi jarak jauh per project. |
Jumlah maksimum kueri multi-pernyataan serentak | 1.000 kueri multi-pernyataan | Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak. Untuk mengetahui kuota dan batas lainnya yang terkait dengan kueri multi-pernyataan, lihat Kueri multi-pernyataan. |
Jumlah maksimum kueri legacy SQL serentak yang berisi UDF | 6 kueri | Project Anda dapat menjalankan hingga 6 kueri legacy SQL secara serentak dengan fungsi yang ditentukan pengguna (UDF). Batas ini mencakup kueri interaktif dan batch. Kueri interaktif yang berisi UDF juga diperhitungkan dalam batas serentak untuk kueri teraktif. Batas ini tidak berlaku untuk kueri GoogleSQL. |
Batas ukuran kueri harian | Tak terbatas | Secara default, tidak ada batas ukuran kueri harian. Namun, Anda dapat menetapkan batas jumlah data yang dapat dibuat kueri oleh pengguna dengan membuat kuota kustom untuk mengontrol penggunaan kueri per hari atau penggunaan kueri per hari per pengguna. |
Batas update tabel tujuan harian | Lihat Jumlah maksimum operasi tabel per hari. |
Update pada tabel tujuan dalam tugas kueri akan mengurangi batas jumlah maksimum operasi tabel per hari untuk tabel tujuan. Update tabel tujuan mencakup operasi penambahan dan penimpaan yang dijalankan oleh kueri yang Anda jalankan menggunakan Konsol Google Cloud, menggunakan alat command line bq, atau memanggil metode API jobs.query
dan jenis kueri
jobs.insert .
|
Batas waktu eksekusi kueri multi-pernyataan/kueri | 6 jam |
Kueri atau kueri multi-pernyataan dapat dieksekusi hingga 6 jam, kemudian gagal. Namun, terkadang kueri dicoba lagi. Kueri dapat dicoba hingga tiga kali, dan setiap percobaan dapat berjalan hingga 6 jam. Akibatnya, kueri dapat memiliki total runtime lebih dari 6 jam. Waktu tunggu tugas |
Jumlah maksimum resource yang dirujuk per kueri | 1.000 resource |
Kueri dapat merujuk hingga total 1.000 tabel unik,
tampilan unik,
fungsi yang ditentukan pengguna (UDF) unik, dan fungsi
tabel unik
setelah perluasan penuh. Batas ini mencakup hal berikut:
|
Panjang karakter kueri SQL maksimum | 1.024 ribu karakter |
Panjang kueri SQL dapat mencapai 1.024 ribu karakter. Batas ini mencakup komentar dan karakter spasi kosong. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri dan membagi kueri yang panjang menjadi beberapa kueri dalam sesi.
|
Panjang maksimum kueri legacy SQL yang belum terselesaikan | 256 KB |
Panjang kueri legacy SQL yang belum terselesaikan dapat mencapai 256 KB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query
is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
|
Panjang maksimum kueri GoogleSQL yang belum terselesaikan | 1 MB |
Panjang kueri GoogleSQL yang belum terselesaikan dapat mencapai 1 MB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too
large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
|
Panjang maksimum kueri GoogleSQL dan lama yang diselesaikan | 12 MB | Batas ukuran kueri yang sudah diselesaikan mencakup ukuran semua tampilan dan tabel karakter pengganti yang dirujuk oleh kueri. |
Jumlah maksimum parameter kueri GoogleSQL | 10.000 parameter | Kueri GoogleSQL dapat memiliki hingga 10.000 parameter. |
Ukuran permintaan maksimum | 10 MB | Ukuran permintaan maksimal 10 MB, termasuk properti tambahan seperti parameter kueri. |
Ukuran respons maksimum | 10 GB dikompresi | Ukuran bervariasi tergantung pada rasio kompresi data. Ukuran respons yang sebenarnya mungkin lebih besar dari 10 GB secara signifikan. Ukuran respons maksimum menjadi tidak terbatas saat menulis hasil kueri dalam jumlah besar ke tabel tujuan. |
Ukuran baris maksimum | 100 MB | Ukuran baris maksimum merupakan perkiraan, karena batasnya didasarkan pada representasi internal dari data baris. Batas ukuran baris maksimum diterapkan selama tahap tertentu dari eksekusi tugas kueri. |
Kolom maksimum dalam tabel, hasil kueri, atau definisi tampilan | 10.000 kolom | Tabel, hasil kueri, atau definisi tampilan dapat memiliki hingga 10.000 kolom. |
Slot serentak maksimum untuk harga sesuai permintaan |
2.000 slot per project 20.000 slot per organisasi |
Dengan harga sesuai permintaan, project Anda dapat memiliki hingga 2.000 slot serentak. Ada juga batas 20.000 slot serentak di tingkat organisasi. BigQuery mencoba mengalokasikan slot secara adil di antara project dalam organisasi jika total permintaannya lebih tinggi dari 20.000 slot. Slot BigQuery dibagikan di antara semua kueri dalam satu project. BigQuery mungkin melakukan bursting di luar batas ini untuk mempercepat kueri Anda. Untuk memeriksa jumlah slot yang Anda gunakan, lihat Memantau BigQuery menggunakan Cloud Monitoring. |
Penggunaan CPU maksimum per data yang dipindai untuk harga sesuai permintaan | 256 detik CPU per MiB yang dipindai |
Dengan harga sesuai permintaan, kueri Anda dapat menggunakan hingga sekitar 256 detik CPU per MiB data yang dipindai. Jika kueri Anda terlalu menggunakan CPU untuk jumlah data yang sedang diproses, kueri akan gagal dengan menampilkan error billingTierLimitExceeded .
Untuk mengetahui informasi selengkapnya,
lihat
billingTierLimitLimited.
|
Mutasi tabel transaksi multi-pernyataan | 100 tabel | Sebuah transaksi dapat mengubah data maksimal 100 tabel. |
Modifikasi partisi transaksi multi-pernyataan | 100.000 modifikasi partisi | Satu transaksi dapat melakukan maksimal 100.000 modifikasi partisi. |
Ukuran hasil kueri maksimum BigQuery Omni | 20 GiB tidak dikompresi | Ukuran hasil maksimum adalah 20 GiB byte logis saat membuat kueri data Azure atau AWS. Jika hasil kueri Anda lebih dari 20 GiB, pertimbangkan untuk mengekspor hasilnya ke Amazon S3 atau Blob Storage. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery. |
Total ukuran hasil kueri BigQuery Omni per hari | 1 TB | Ukuran total hasil kueri untuk sebuah project adalah 1 TB per hari.
Untuk mengetahui informasi selengkapnya, lihat Batasan BigQuery Omni. |
Ukuran baris maksimum BigQuery Omni | 10 MiB | Ukuran baris maksimum adalah 10 MiB saat membuat kueri data Azure atau AWS. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery. |
Meskipun kueri terjadwal menggunakan fitur BigQuery Data Transfer Service, kueri terjadwal bukanlah transfer, dan tidak tunduk pada batas tugas pemuatan.
Tugas ekspor
Batas berikut berlaku untuk tugas yang mengekspor data dari BigQuery dengan menggunakan alat command line bq, Konsol Google Cloud, atau metode API jenis ekspor jobs.insert
.
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum byte yang diekspor per hari | 50 TiB |
Anda dapat mengekspor hingga 50 TiB(Tebibyte) data per hari dari sebuah project tanpa biaya menggunakan gabungan slot bersama. Anda dapat menyiapkan kebijakan pemberitahuan Cloud Monitoring yang memberikan notifikasi tentang jumlah byte yang diekspor.
Untuk mengekspor lebih dari 50 TiB(Tebibyte) data per hari, lakukan salah satu langkah berikut:
|
Jumlah maksimum tugas ekspor per hari | 100.000 ekspor |
Anda dapat menjalankan hingga 100.000 ekspor per hari dalam sebuah project.
Untuk menjalankan lebih dari 100.000 ekspor per hari, lakukan salah satu langkah berikut:
|
Ukuran tabel maksimum yang diekspor ke satu file | 1 GB | Anda dapat mengekspor hingga 1 GB data tabel ke satu file. Untuk mengekspor lebih dari 1 GB data, gunakan karakter pengganti untuk mengekspor data ke beberapa file. Saat Anda mengekspor data ke beberapa file, ukuran file akan bervariasi. Dalam beberapa kasus, ukuran file output lebih dari 1 GB. |
URI karakter pengganti per ekspor | 500 URI | Ekspor dapat memiliki hingga 500 URI karakter pengganti. |
Untuk mengetahui informasi selengkapnya tentang cara melihat penggunaan tugas ekspor saat ini, lihat Melihat penggunaan kuota saat ini.
Tugas pemuatan
Batas berikut berlaku saat Anda memuat data ke BigQuery, menggunakan Koncol Google Cloud, alat command line bq, atau metode API jenis pemuatan jobs.insert
.
Batas | Default | Catatan |
---|---|---|
Tugas pemuatan per tabel per hari | 1.500 tugas | Tugas pemuatan, termasuk tugas pemuatan yang gagal, akan diperhitungkan dalam batas jumlah operasi tabel per hari untuk tabel tujuan. Untuk informasi tentang batas jumlah operasi tabel per hari untuk tabel standar dan tabel berpartisi, lihat Tabel. |
Tugas pemuatan per hari | 100.000 tugas | Kuota tugas pemuatan project Anda akan diisi ulang dengan maksimum 100.000 kuota setiap 24 jam. Tugas pemuatan yang gagal akan mengurangi batas ini. Dalam beberapa kasus, Anda dapat menjalankan lebih dari 100.000 tugas pemuatan dalam 24 jam jika kuota hari sebelumnya tidak digunakan sepenuhnya. |
Kolom maksimum per tabel | 10.000 kolom | Satu tabel dapat memiliki hingga 10.000 kolom. |
Ukuran maksimum per tugas pemuatan | 15 TB | Ukuran total untuk semua file input CSV, JSON, Avro, Parquet, dan ORC Anda dapat berukuran hingga 15 TB. |
Jumlah maksimum URI sumber dalam konfigurasi tugas | 10.000 URI | Konfigurasi tugas dapat memiliki hingga 10.000 URI sumber. |
Jumlah file maksimum per tugas pemuatan | 10.000.000 file | Tugas pemuatan dapat memiliki total hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti. |
Jumlah maksimum file dalam bucket Cloud Storage sumber | Sekitar 60.000.000 file | Tugas pemuatan dapat membaca dari bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file. |
Batas waktu eksekusi tugas pemuatan | 6 jam | Tugas pemuatan akan gagal jika dijalankan lebih dari enam jam. |
Avro: Ukuran maksimum untuk blok data file | 16 MB | Batas ukuran untuk blok data file Avro adalah 16 MB. |
CSV: Ukuran sel maksimum | 100 MB | Sel CSV dapat berukuran hingga 100 MB. |
CSV: Ukuran baris maksimum | 100 MB | Ukuran baris CSV maksimal 100 MB. |
CSV: Ukuran file maksimum - dikompresi | 4 GB | Batas ukuran untuk file CSV yang dikompresi adalah 4 GB. |
CSV: Ukuran file maksimum - tidak dikompresi | 5 TB | Batas ukuran untuk file CSV yang tidak dikompresi adalah 5 TB. |
JSON yang dibatasi baris baru (ndJSON): Ukuran baris maksimum | 100 MB | Ukuran baris ndJSON maksimal 100 MB. |
ndJSON: Ukuran file maksimum - dikompresi | 4 GB | Batas ukuran untuk file ndJSON yang dikompresi adalah 4 GB. |
ndJSON: Ukuran file maksimum - tidak dikompresi | 5 TB | Batas ukuran untuk file ndJSON yang tidak dikompresi adalah 5 TB. |
Jika Anda secara rutin melebihi batas tugas pemuatan karena update yang sering dilakukan, pertimbangkan untuk melakukan streaming data ke BigQuery.
Untuk informasi tentang cara melihat penggunaan tugas pemuatan saat ini, lihat Melihat penggunaan kuota saat ini.
Pertimbangan kuota tugas pemuatan BigQuery Data Transfer Service
Tugas pemuatan yang dibuat oleh transfer BigQuery Data Transfer Service disertakan dalam kuota BigQuery pada tugas pemuatan. Penting untuk mempertimbangkan jumlah transfer yang Anda aktifkan di setiap project untuk mencegah transfer dan tugas pemuatan lainnya menghasilkan error quotaExceeded
.
Anda dapat menggunakan persamaan berikut untuk memperkirakan jumlah tugas pemuatan yang diperlukan oleh transfer:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Dengan keterangan:
Number of transfers
adalah jumlah konfigurasi transfer yang Anda aktifkan dalam project.Number of tables
adalah jumlah tabel yang dibuat oleh setiap jenis transfer tertentu. Jumlah tabel bervariasi menurut jenis transfer:- Transfer Campaign Manager membuat sekitar 25 tabel.
- Transfer Google Ads membuat sekitar 60 tabel.
- Transfer Google Ad Manager membuat sekitar 40 tabel.
- Transfer Google Play membuat sekitar 25 tabel.
- Transfer Search Ads 360 membuat sekitar 50 tabel.
- Transfer YouTube membuat sekitar 50 tabel.
Schedule frequency
menjelaskan seberapa sering transfer berjalan. Jadwal proses transfer disediakan untuk setiap jenis transfer:Refresh window
adalah jumlah hari yang akan disertakan dalam transfer data. Jika Anda memasukkan 1, tidak ada pengisian ulang harian.
Tugas penyalinan
Batas berikut berlaku untuk tugas BigQuery untuk menyalin tabel, termasuk tugas yang membuat salinan, clone, atau snapshot tabel standar, clone tabel, atau snapshot tabel.
Batas ini berlaku untuk tugas yang dibuat menggunakan konsol Google Cloud, alat command line bq, atau metode jobs.insert
yang menentukan kolom copy
dalam konfigurasi tugas.
Tugas penyalinan akan diperhitungkan dalam batas ini, terlepas dari apakah tugas tersebut berhasil atau gagal.
Batas | Default | Catatan |
---|---|---|
Tugas penyalinan per tabel tujuan per hari | Lihat Operasi tabel per hari. | |
Tugas penyalinan per hari | 100.000 tugas | Project Anda dapat menjalankan hingga 100.000 tugas penyalinan per hari. |
Tugas penyalinan lintas region per tabel tujuan per hari | 100 tugas | Project Anda dapat menjalankan hingga 100 tugas penyalinan lintas region untuk tabel tujuan per hari. |
Tugas penyalinan lintas region per hari | 2.000 tugas | Project Anda dapat menjalankan hingga 2.000 tugas penyalinan lintas region per hari. |
Jumlah tabel sumber yang akan disalin | 1.200 tabel sumber | Anda dapat menyalin hingga 1.200 tabel sumber per tugas penyalinan. |
Untuk informasi tentang cara melihat penggunaan tugas penyalinan Anda saat ini, lihat Tugas penyalinan - Melihat penggunaan kuota saat ini.
Batas berikut berlaku untuk menyalin set data:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum tabel dalam set data sumber | 25.000 tabel | Set data sumber dapat memiliki hingga 25.000 tabel. |
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang sama | 20.000 tabel | Project Anda dapat menyalin maksimum 20.000 tabel per proses ke set data tujuan dalam region yang sama. Jika set data sumber berisi lebih dari 20.000 tabel, BigQuery Data Transfer Service akan menjadwalkan operasi berurutan, yang masing-masing menyalin hingga 20.000 tabel, hingga semua tabel disalin. Proses ini dipisahkan oleh interval default 24 jam, yang dapat disesuaikan oleh pengguna hingga minimum 12 jam. |
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang berbeda | 1.000 tabel | Project Anda dapat menyalin maksimum 1.000 tabel per proses ke set data tujuan di region yang berbeda. Jika set data sumber berisi lebih dari 1.000 tabel, BigQuery Data Transfer Service akan menjadwalkan operasi berurutan, yang masing-masing menyalin hingga 1.000 tabel, hingga semua tabel disalin. Proses ini dipisahkan oleh interval default 24 jam, yang dapat disesuaikan oleh pengguna hingga minimum 12 jam. |
Reservasi
Kuota berikut berlaku untuk pemesanan:
Kuota | Default | Catatan |
---|---|---|
Jumlah total slot untuk region Uni Eropa | 5.000 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli di multi-region Uni Eropa menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk region AS | 10.000 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli
di multi-region AS menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk region us-east1
|
4.000 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli di region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk region berikut:
|
2.000 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk region berikut:
|
1.000 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk region BigQuery Omni | 100 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli
di region BigQuery Omni
menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Jumlah total slot untuk semua region lain | 500 slot |
Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region lain menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud |
Batas berikut berlaku untuk pemesanan:
Batas | Nilai | Catatan |
---|---|---|
Jumlah project administrasi untuk pemesanan slot | 5 project per organisasi | Jumlah maksimum project dalam organisasi yang dapat berisi pemesanan atau komitmen aktif untuk slot bagi lokasi/region tertentu. |
Jumlah maksimum pemesanan edisi standar | 10 pemesanan per project | Jumlah maksimum pemesanan edisi standar per project administrasi dalam sebuah organisasi untuk lokasi/region tertentu. |
Jumlah maksimum pemesanan edisi Enterprise atau Enterprise Plus | 200 reservasi per project | Jumlah maksimum pemesanan edisi Enterprise atau Enterprise Plus per project administrasi dalam sebuah organisasi untuk lokasi / region tertentu. |
Jumlah maksimum slot dalam pemesanan yang dikaitkan dengan
penetapan pemesanan dengan jenis tugas CONTINUOUS .
|
500 slot |
Jika Anda ingin membuat penetapan pemesanan yang memiliki jenis tugas CONTINUOUS , pemesanan terkait tidak boleh memiliki lebih dari 500 slot.
|
Set data
Batas berikut berlaku untuk set data BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum set data | Tak terbatas | Tidak ada batas jumlah set data yang dapat dimiliki project. |
Jumlah tabel per set data | Tak terbatas | Saat Anda menggunakan panggilan API, performa enumerasi akan melambat saat Anda mendekati 50.000 tabel dalam set data. Konsol Google Cloud dapat menampilkan hingga 50.000 tabel untuk setiap set data. |
Jumlah resource yang diotorisasi dalam daftar kontrol akses set data | 2.500 resource | Daftar kontrol akses set data dapat memiliki hingga total 2.500 resource yang diotorisasi, termasuk tampilan yang diotorisasi,set data yang diotorisasi, dan fungsi yang diotorisasi. Jika Anda melebihi batas ini karena banyaknya tampilan yang diotorisasi, pertimbangkan untuk mengelompokkan tampilan ke dalam set data yang diotorisasi. |
Jumlah operasi update set data per set data per 10 detik | 5 operasi |
Project Anda dapat melakukan hingga lima operasi update set data setiap 10 detik.
Batas update set data mencakup semua operasi update metadata
yang dilakukan oleh hal berikut:
|
Panjang maksimum deskripsi set data | 16.384 karakter | Saat Anda menambahkan deskripsi ke set data, jumlah karakter pada teks dapat berisi maksimal 16.384. |
Tabel
Semua tabel
Batas berikut berlaku untuk semua tabel BigQuery.
Batas | Default | Catatan |
---|---|---|
Panjang maksimum nama kolom | 300 karakter | Nama kolom Anda dapat berisi maksimal 300 karakter. |
Panjang maksimum deskripsi kolom | 1.024 karakter | Saat Anda menambahkan deskripsi ke kolom, jumlah karakter pada teks dapat berisi maksimal 16.384. |
Kedalaman maksimum data bertingkat | 15 tingkat |
Kolom jenis RECORD dapat berisi jenis RECORD bertingkat, yang juga disebut sebagai data turunan. Batas kedalaman maksimum bertingkat adalah 15 tingkat.
Batas ini tidak bergantung pada apakah data berbasis skalar atau array (berulang).
|
Panjang maksimum deskripsi tabel | 16.384 karakter | Saat Anda menambahkan deskripsi ke tabel, jumlah karakter pada teks dapat berisi maksimal 16.384. |
Tabel standar
Batas berikut berlaku untuk tabel standar (bawaan) BigQuery:
Batas | Default | Catatan |
---|---|---|
Modifikasi tabel per hari | 1.500 modifikasi | Project Anda dapat membuat hingga 1.500 modifikasi tabel per tabel per hari, baik ketika modifikasi menambahkan data, memperbarui data, maupun memotong tabel. Batas ini tidak dapat diubah dan mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan. Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari. Data streaming tidak diperhitungkan dalam jumlah modifikasi tabel per hari. |
Kapasitas maksimum operasi update metadata tabel per tabel | 5 operasi per 10 detik |
Project Anda dapat membuat hingga lima operasi update metadata tabel per 10 detik per tabel. Batas ini berlaku untuk semua operasi update metadata tabel,
yang dilakukan oleh hal berikut:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE , atau, UPDATE untuk menulis
data ke tabel. Perhatikan bahwa meskipun pernyataan DML diperhitungkan terhadap batas ini, pernyataan tersebut tidak akan dikenai jika batas tersebut tercapai. Operasi DML memiliki batas kapasitas khusus.
Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti
Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log. Lihat Memecahkan masalah error kuota untuk mendapatkan panduan tentang cara mendiagnosis dan mengatasi error ini. |
Jumlah kolom maksimum per tabel | 10.000 kolom | Setiap definisi tabel, hasil kueri, atau tampilan dapat memiliki hingga 10.000 kolom. |
Tabel eksternal
Batas berikut berlaku untuk tabel BigQuery dengan data yang disimpan di Cloud Storage dalam format Parquet, ORC, Avro, CSV, atau JSON:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum URI sumber per tabel eksternal | 10.000 URI | Setiap tabel eksternal dapat memiliki hingga 10.000 URI sumber. |
Jumlah file maksimum per tabel eksternal | 10.000.000 file | Tabel eksternal dapat memiliki hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti. |
Ukuran maksimum data yang disimpan di Cloud Storage per tabel eksternal | 600 TB | Tabel eksternal dapat memiliki hingga 600 terabyte di semua file input. Batas ini berlaku untuk ukuran file seperti yang disimpan di Cloud Storage; ukuran ini tidak sama dengan ukuran yang digunakan dalam formula penetapan harga kueri. Untuk tabel yang dipartisi secara eksternal, batas ini akan diterapkan setelah pruning partisi. |
Jumlah maksimum file dalam bucket Cloud Storage sumber | Sekitar 60.000.000 file | Tabel eksternal dapat merujuk bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file. Untuk tabel yang dipartisi secara eksternal, batas ini diterapkan sebelum pruning partisi. |
Tabel yang dipartisi
Batas berikut berlaku untuk tabel yang dipartisi BigQuery.
Batas partisi berlaku untuk total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa partisi tujuan.
Satu tugas dapat memengaruhi beberapa partisi. Misalnya, tugas kueri dan tugas pemuatan dapat menulis ke beberapa partisi.
BigQuery menggunakan jumlah partisi yang dipengaruhi oleh tugas saat menentukan jumlah batas yang digunakan oleh tugas tersebut. Streaming insert tidak memengaruhi kuota ini.
Untuk mengetahui informasi tentang strategi agar tetap berada dalam batas tabel berpartisi, lihat Memecahkan masalah error kuota.
Batas | Default | Catatan |
---|---|---|
Jumlah partisi per tabel berpartisi | 10.000 partisi | Setiap tabel berpartisi dapat memiliki hingga 10.000 partisi. Jika Anda melebihi batas ini, pertimbangkan untuk menggunakan pengelompokan sebagai tambahan dari, atau sebagai ganti, partisi. |
Jumlah partisi yang diubah oleh satu tugas | 4.000 partisi | Setiap operasi tugas (kueri atau pemuatan) dapat memengaruhi hingga 4.000 partisi. BigQuery menolak semua tugas kueri atau pemuatan yang mencoba memodifikasi lebih dari 4.000 partisi. |
Jumlah modifikasi partisi per tabel berpartisi berdasarkan waktu penyerapan per hari | 5.000 modifikasi | Project Anda dapat membuat hingga 5.000 modifikasi partisi per hari, baik modifikasi menambahkan data, mengupdate data, maupun memotong tabel berpartisi berdasarkan waktu penyerapan. Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari. |
Jumlah modifikasi partisi per tabel berpartisi kolom per hari | 30.000 modifikasi | Project Anda dapat membuat hingga 30.000 modifikasi partisi per hari untuk tabel berpartisi kolom. Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari. Data streaming tidak diperhitungkan dalam jumlah modifikasi partisi per hari. |
Kapasitas maksimum operasi update metadata tabel per tabel berpartisi | 50 modifikasi per 10 detik |
Project Anda dapat membuat hingga 50 modifikasi per tabel berpartisi setiap
10 detik. Batas ini berlaku untuk semua operasi update metadata tabel berpartisi, yang dilakukan oleh hal berikut:
DELETE , INSERT , MERGE ,
TRUNCATE TABLE , atau, UPDATE untuk menulis
data ke tabel.
Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti
Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log. |
Jumlah rentang yang memungkinkan untuk partisi rentang | 10.000 rentang | Tabel berpartisi rentang dapat memiliki hingga 10.000 kemungkinan rentang. Batas ini berlaku untuk spesifikasi partisi saat Anda membuat tabel. Setelah membuat tabel, batas juga berlaku untuk jumlah partisi sebenarnya. |
Clone tabel
Batas berikut berlaku untuk clone tabel BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum clone dan snapshot dalam rantai | 3 clone atau snapshot tabel | Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan. |
Jumlah maksimum clone dan snapshot untuk tabel dasar | 1.000 clone atau snapshot tabel | Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas. |
Snapshot tabel
Batas berikut berlaku untuk snapshot tabel BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum tugas snapshot tabel serentak | 100 tugas | Project Anda dapat menjalankan hingga 100 tugas snapshot tabel serentak. |
Jumlah maksimum tugas snapshot tabel per hari | 50.000 tugas | Project Anda dapat menjalankan hingga 50.000 tugas snapshot tabel per hari. |
Jumlah maksimum tugas snapshot tabel per tabel per hari | 50 tugas | Project Anda dapat menjalankan hingga 50 tugas snapshot tabel per tabel per hari. |
Jumlah maksimum update metadata per snapshot tabel per 10 detik. | 5 update | Project Anda dapat mengupdate metadata snapshot tabel hingga lima kali setiap 10 detik. |
Jumlah maksimum clone dan snapshot dalam rantai | 3 clone atau snapshot tabel | Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan. |
Jumlah maksimum clone dan snapshot untuk tabel dasar | 1.000 clone atau snapshot tabel | Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas. |
Dilihat
Kuota dan batas berikut berlaku untuk tampilan dan tampilan terwujud.
Tampilan logis
Batas berikut berlaku untuk tampilan standar BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum tingkat tampilan bertingkat | 16 tingkat |
BigQuery mendukung hingga 16 tingkat tampilan bertingkat.
Anda dapat membuat tampilan hingga batas ini, tetapi kueri dibatasi hingga
15 level. Jika batas terlampaui, BigQuery akan menampilkan error INVALID_INPUT .
|
Panjang maksimum kueri GoogleSQL yang digunakan untuk menentukan tampilan | 256 ribu karakter | Satu kueri GoogleSQL yang menentukan tampilan dapat berisi hingga 256 K karakter. Batas ini berlaku untuk satu kueri dan tidak mencakup panjang tampilan yang dirujuk dalam kueri. |
Jumlah maksimum tampilan yang diizinkan per set data | Lihat Set data. | |
Panjang maksimum deskripsi tampilan | 16.384 karakter | Saat Anda menambahkan deskripsi ke tampilan, jumlah karakter pada teks dapat berisi maksimal 16.384. |
Tampilan terwujud
Batas berikut berlaku untuk tampilan terwujud BigQuery:
Batas | Default | Catatan |
---|---|---|
Referensi tabel dasar (set data yang sama) | 20 tampilan terwujud | Setiap tabel dasar dapat dirujuk oleh hingga 20 tampilan terwujud dari set data yang sama. |
Referensi tabel dasar (project yang sama) | 100 tampilan terwujud | Setiap tabel dasar dapat dirujuk oleh hingga 100 tampilan terwujud dari project yang sama. |
Referensi tabel dasar (seluruh organisasi) | 500 tampilan terwujud | Setiap tabel dasar dapat dirujuk oleh hingga 500 tampilan terwujud dari seluruh organisasi. |
Jumlah maksimum tampilan yang diizinkan per set data | Lihat Set data. | |
Panjang maksimum deskripsi tampilan terwujud | 16.384 karakter | Saat Anda menambahkan deskripsi ke tampilan yang diwujudkan, jumlah karakter pada teks dapat berisi maksimal 16.384. |
Indeks penelusuran
Batas berikut berlaku untuk indeks penelusuran BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah pernyataan DDL CREATE INDEX per project per
region per hari
|
500 operasi |
Project Anda dapat menerbitkan hingga 500 operasi DDL CREATE INDEX
setiap hari dalam suatu region.
|
Jumlah pernyataan DDL indeks penelusuran per tabel per hari | 20 operasi |
Project Anda dapat menerbitkan hingga 20 operasi DDL CREATE INDEX atau
DROP INDEX per tabel per hari.
|
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks penelusuran yang tidak berjalan di pemesanan | 100 TB di multi-region; 20 TB di semua region lain |
Anda dapat membuat indeks penelusuran untuk tabel jika ukuran keseluruhan tabel yang memiliki indeks dalam organisasi Anda di bawah batas region: 100 TB untuk US dan EU multi-region, serta 20 TB untuk semua region lain. Jika tugas pengelolaan indeks Anda berjalan di pemesanan Anda sendiri, batas ini tidak berlaku.
|
Indeks vektor
Batas berikut berlaku untuk indeks vektor BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah baris minimum tabel dasar | 5.000 baris | Tabel harus memiliki minimal 5.000 baris untuk membuat indeks vektor. |
Jumlah maksimum baris tabel dasar |
10.000.000.000 baris untuk jenis indeks IVF 200.000.000 untuk jenis indeks TREE_AH |
Tabel dapat memiliki maksimal 10.000.000.000 baris untuk membuat indeks vektor IVF, dan 200.000.000 baris untuk membuat indeks vektor TREE_AH. |
Ukuran maksimum array dalam kolom yang diindeks | 1.600 elemen | Kolom yang akan diindeks dapat berisi maksimal 1.600 elemen dalam array. |
Ukuran tabel minimum untuk pengisian indeks vektor | 10 MB | Jika Anda membuat indeks vektor pada tabel yang berukuran di bawah 10 MB, indeks tidak akan terisi. Demikian pula, jika Anda menghapus data dari tabel yang diindeks vektor sehingga ukuran tabel kurang dari 10 MB, indeks vektor akan dinonaktifkan untuk sementara. Hal ini terjadi terlepas dari apakah Anda menggunakan pemesanan sendiri untuk tugas pengelolaan indeks Anda atau tidak. Setelah ukuran tabel yang diindeks vektor kembali melebihi 10 MB, indeksnya akan otomatis diisi. |
Jumlah pernyataan DDL CREATE VECTOR INDEX per project
per region per hari
|
500 operasi |
Untuk setiap project, Anda dapat menerbitkan hingga 500 operasi CREATE VECTOR INDEX per hari untuk setiap region.
|
Jumlah pernyataan DDL indeks vektor per tabel per hari | 10 operasi |
Anda dapat menerbitkan hingga 10 operasi CREATE VECTOR INDEX atau
DROP VECTOR INDEX per tabel per hari.
|
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks vektor yang tidak berjalan di pemesanan | 6 TB | Anda dapat membuat indeks vektor untuk tabel jika ukuran total tabel yang memiliki indeks dalam organisasi Anda kurang dari 6 TB. Jika tugas pengelolaan indeks Anda berjalan di pemesanan Anda sendiri, batas ini tidak berlaku. |
Rutinitas
Kuota dan batas berikut berlaku untuk rutinitas.
Fungsi yang ditentukan pengguna (UDF)
Batasan berikut berlaku untuk fungsi yang ditentukan pengguna (UDF) sementara dan persisten dalam kueri GoogleSQL.
Batas | Default | Catatan |
---|---|---|
Output maksimum per baris | 5 MB | Jumlah maksimum data yang dapat dihasilkan oleh UDF JavaScript Anda saat memproses satu baris adalah sekitar 5 MB. |
Kueri legacy SQL serentak maksimum dengan UDF JavaScript | 6 kueri | Project Anda dapat memiliki hingga enam kueri legacy SQL serentak yang berisi UDF dalam JavaScript. Batas ini mencakup kueri interaktif dan kueri batch. Batas ini tidak berlaku untuk kueri GoogleSQL. |
Resource UDF JavaScript maksimum per kueri | 50 resource | Tugas kueri dapat memiliki hingga 50 resource UDF JavaScript, seperti blob kode inline atau file eksternal. |
Ukuran maksimum blob kode inline | 32 KB | Blob kode inline dalam UDF dapat berukuran hingga 32 KB. |
Ukuran maksimum setiap resource kode eksternal | 1 MB | Ukuran maksimum setiap resource kode JavaScript adalah satu MB. |
Batas berikut berlaku untuk UDF persisten:
Batas | Default | Catatan |
---|---|---|
Panjang maksimum nama UDF | 256 karakter | Panjang nama UDF maksimal 256 karakter. |
Jumlah maksimum argumen | 256 argumen | UDF dapat memiliki hingga 256 argumen. |
Panjang maksimum nama argumen | 128 karakter | Nama argumen UDF dapat berisi hingga 128 karakter. |
Kedalaman maksimum rantai referensi UDF | 16 referensi | Rantai referensi UDF dapat mencapai kedalaman 16 referensi. |
Kedalaman maksimum argumen atau output jenis STRUCT
|
15 tingkat |
Argumen atau output UDF jenis STRUCT dapat mencapai kedalaman 15 tingkat.
|
Jumlah maksimum kolom dalam output atau argumen jenis STRUCT per UDF
|
1.024 kolom |
UDF dapat memiliki hingga 1.024 kolom dalam output dan argumen jenis STRUCT .
|
Jumlah maksimum library JavaScript dalam pernyataan CREATE FUNCTION
|
50 library |
Pernyataan CREATE FUNCTION dapat memiliki hingga 50 library JavaScript.
|
Panjang maksimum jalur library JavaScript yang disertakan | 5.000 karakter | Jalur untuk library JavaScript yang disertakan dalam UDF dapat memiliki hingga 5.000 karakter. |
Kecepatan update maksimum per UDF per 10 detik | 5 update | Project Anda dapat mengupdate UDF hingga lima kali setiap 10 detik. |
Jumlah maksimum UDF yang diizinkan per set data | Lihat Set data. |
Fungsi jarak jauh
Batas berikut berlaku untuk fungsi jarak jauh di BigQuery.
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh | 10 kueri | Anda dapat menjalankan hingga sepuluh kueri serentak dengan fungsi jarak jauh per project. |
Ukuran input maksimum | 5 MB | Ukuran total maksimum semua argumen input dari satu baris adalah 5 MB. |
Batas ukuran respons HTTP (fungsi Cloud Run generasi ke-1) | 10 MB | Isi respons HTTP dari fungsi Cloud Run generasi ke-1 maksimal 10 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri. |
Batas ukuran respons HTTP (fungsi Cloud Run generasi ke-2 atau Cloud Run) | 15 MB | Isi respons HTTP dari fungsi Cloud Run generasi ke-2 atau Cloud Run maksimal 15 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri. |
Batas waktu pemanggilan HTTP maks (fungsi Cloud Run generasi ke-1) | 9 menit | Anda dapat menetapkan batas waktu sendiri untuk fungsi Cloud Run generasi ke-1 untuk pemanggilan HTTP individual, tetapi batas waktu maksimumnya adalah 9 menit. Melebihi batas waktu yang ditetapkan untuk fungsi Cloud Run generasi ke-1 dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri. |
Batas waktu pemanggilan HTTP (fungsi Cloud Run generasi ke-2 atau Cloud Run) | 20 menit | Batas waktu untuk setiap pemanggilan HTTP ke Cloud Run generasi ke-2 atau Cloud Run. Melebihi nilai ini dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri. |
Jumlah maksimum percobaan percobaan ulang pemanggilan HTTP | 20 | Jumlah maksimum upaya percobaan ulang untuk setiap pemanggilan HTTP ke fungsi Cloud Run generasi ke-1, generasi ke-2, atau Cloud Run. Melebihi nilai ini dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri. |
Fungsi tabel
Batas berikut berlaku untuk fungsi tabel BigQuery:
Batas | Default | Catatan |
---|---|---|
Panjang maksimum nama fungsi tabel | 256 karakter | Panjang nama fungsi tabel maksimal 256 karakter. |
Panjang maksimum nama argumen | 128 karakter | Panjang nama argumen fungsi tabel dapat mencapai 128 karakter. |
Jumlah maksimum argumen | 256 argumen | Fungsi tabel dapat memiliki hingga 256 argumen. |
Kedalaman maksimum rantai referensi fungsi tabel | 16 referensi | Rantai referensi fungsi tabel dapat memiliki hingga 16 referensi. |
Kedalaman maksimum argumen atau output jenis STRUCT
|
15 tingkat |
Argumen STRUCT untuk fungsi tabel dapat memiliki kedalaman hingga 15 tingkat. Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki kedalaman hingga 15 tingkat.
|
Jumlah maksimum kolom dalam argumen atau tabel hasil dengan jenis
STRUCT per fungsi tabel
|
1.024 kolom |
Argumen STRUCT untuk
fungsi tabel dapat memiliki hingga 1.024 kolom.
Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki hingga 1.024 kolom.
|
Jumlah kolom maksimum dalam tabel hasil | 1.024 kolom | Tabel yang ditampilkan oleh fungsi tabel dapat memiliki hingga 1.024 kolom. |
Panjang maksimum nama kolom tabel hasil | 128 karakter | Panjang nama kolom dalam tabel yang ditampilkan dapat berisi hingga 128 karakter. |
Jumlah maksimum update per fungsi tabel per 10 detik | 5 update | Project Anda dapat mengupdate fungsi tabel hingga lima kali setiap 10 detik. |
Prosedur tersimpan untuk Apache Spark
Batas berikut berlaku untuk prosedur yang disimpan di BigQuery untuk Apache Spark:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kueri prosedur tersimpan serentak | 50 | Anda dapat menjalankan hingga 50 kueri prosedur tersimpan serentak untuk setiap project. |
Jumlah maksimum CPU yang sedang digunakan | 12.000 | Anda dapat menggunakan hingga 12.000 CPU untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini.
Anda dapat menggunakan hingga 2.400 CPU untuk setiap lokasi untuk setiap project, kecuali di lokasi berikut:
Di lokasi ini, Anda dapat menggunakan hingga 500 CPU per lokasi untuk setiap project. Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada dalam area geografis yang sama, kueri Anda mungkin menggunakan kuota CPU serentak yang sama. |
Ukuran total maksimum persistent disk standar yang digunakan | 204,8 TB | Anda dapat menggunakan persistent disk standar hingga 204,8 TB per lokasi untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini. Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada di area geografis yang sama, kueri Anda mungkin akan menggunakan kuota persistent disk standar yang sama. |
Notebook
Semua kuota dan batas Dataform serta kuota dan batas Colab Enterprise berlaku untuk notebook di BigQuery. Batasan berikut juga berlaku:
Batas | Default | Catatan |
---|---|---|
Ukuran maksimum notebook | 20 MB |
Ukuran notebook adalah total konten, metadata, dan overhead encoding-nya. Anda dapat melihat ukuran konten notebook dengan meluaskan header notebook, mengklik View, lalu mengklik Notebook info. |
Jumlah maksimum permintaan per detik ke Dataform | 100 | Notebook dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah notebook akan mengurangi kuota ini. Kuota ini dibagikan ke kueri tersimpan. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota. |
Kueri tersimpan
Semua kuota dan batas Dataform berlaku untuk kueri tersimpan. Batas berikut juga berlaku:
Batas | Default | Catatan |
---|---|---|
Ukuran maksimum kueri tersimpan | 10 MB | |
Jumlah maksimum permintaan per detik ke Dataform | 100 | Kueri tersimpan dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah kueri tersimpan akan mengurangi kuota ini. Kuota ini dibagikan ke notebook. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota. |
Bahasa pengolahan data
Batas berikut berlaku untuk pernyataan bahasa pengolahan data (DML) BigQuery:
Batas | Default | Catatan |
---|---|---|
Pernyataan DML per hari | Tak terbatas |
Jumlah pernyataan DML yang dapat dijalankan oleh proyek Anda per hari tidak terbatas.
Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari atau jumlah modifikasi tabel berpartisi per hari untuk tabel berpartisi. Pernyataan DML memiliki batasan berikut yang harus diperhatikan. |
Pernyataan DML INSERT serentak per tabel per hari
|
1.500 laporan mutasi |
1.500 pernyataan INSERT pertama
langsung dijalankan setelah dikirim. Setelah batas ini tercapai,
konkurensi pernyataan INSERT yang menulis ke tabel
dibatasi hingga 10. Pernyataan INSERT tambahan ditambahkan ke
antrean PENDING . Hingga 100 pernyataan INSERT dapat dimasukkan ke dalam antrean untuk tabel pada waktu tertentu. Saat pernyataan INSERT selesai, pernyataan INSERT berikutnya akan dihapus dari antrean dan dijalankan.
Jika Anda harus menjalankan pernyataan DML INSERT lebih sering,
pertimbangkan untuk melakukan streaming data ke tabel menggunakan
Storage Write API.
|
Pernyataan DML bermutasi serentak per tabel | 2 pernyataan |
BigQuery menjalankan hingga dua pernyataan DML bermutasi serentak (UPDATE , DELETE , dan MERGE ) untuk setiap tabel. Pernyataan DML bermutasi tambahan untuk tabel sedang dimasukkan ke dalam antrean.
|
Pernyataan DML bermutasi yang diantrekan per tabel | 20 pernyataan | Sebuah tabel dapat memiliki hingga 20 pernyataan DML yang bermutasi dalam antrean yang menunggu untuk dijalankan. Jika Anda mengirimkan pernyataan DML bermutasi tambahan untuk tabel, pernyataan tersebut akan gagal. |
Waktu maksimum dalam antrean untuk pernyataan DML | 6 jam | Pernyataan DML prioritas interaktif dapat menunggu dalam antrean hingga enam jam. Jika tidak berjalan setelah enam jam, pernyataan tersebut akan gagal. |
Kecepatan maksimum pernyataan DML untuk setiap tabel | 25 pernyataan setiap 10 detik |
Project Anda dapat menjalankan hingga 25 pernyataan DML setiap 10 detik untuk setiap tabel. Baik pernyataan INSERT maupun pernyataan DML yang bermutasi berkontribusi terhadap batas ini.
|
Untuk mengetahui informasi selengkapnya tentang mengubah pernyataan DML, lihat
konkurensi DML INSERT
dan
konkurensi DML UPDATE, DELETE, MERGE
.
Kueri multi-pernyataan
Batas berikut berlaku untuk kueri multi-pernyataan di BigQuery.
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kueri multi-pernyataan serentak | 1.000 kueri multi-pernyataan | Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak. |
Batas waktu kumulatif | 24 jam | Batas waktu kumulatif untuk kueri multi-pernyataan adalah 24 jam. |
Batas waktu pernyataan | 6 jam | Batas waktu untuk setiap pernyataan dalam kueri multi-pernyataan adalah 6 jam. |
CTE berulang dalam kueri
Batas berikut berlaku untuk ekspresi tabel umum (CTE) berulang di BigQuery.
Batas | Default | Catatan |
---|---|---|
Batas iterasi | 500 iterasi | CTE berulang dapat menjalankan jumlah iterasi ini. Jika batas ini terlampaui, akan muncul error. Untuk mengatasi batas iterasi, lihat Memecahkan masalah error batas iterasi. |
Keamanan tingkat baris
Batas berikut berlaku untuk kebijakan akses tingkat baris BigQuery:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kebijakan akses baris per tabel | 400 kebijakan | Satu tabel dapat memiliki hingga 400 kebijakan akses baris. |
Jumlah maksimum kebijakan akses baris per kueri | 6.000 kebijakan | Kueri dapat mengakses hingga total 6.000 kebijakan akses baris. |
Jumlah maksimum pernyataan DDL CREATE /DROP per kebijakan per 10 detik |
5 pernyataan |
Project Anda dapat membuat hingga lima pernyataan CREATE atau DROP
per resource kebijakan akses baris setiap 10 detik.
|
Pernyataan DROP ALL ROW ACCESS POLICIES per tabel per 10 detik |
5 pernyataan |
Project Anda dapat membuat hingga lima pernyataan DROP ALL ROW ACCESS POLICIES per tabel setiap 10 detik.
|
Kebijakan data
Batas berikut berlaku untuk penyamaran data dinamis tingkat kolom:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum kebijakan data per tag kebijakan. | 8 kebijakan per tag kebijakan | Hingga delapan kebijakan data per tag kebijakan. Salah satu kebijakan ini dapat digunakan untuk kontrol akses tingkat kolom. Ekspresi penyamaran duplikat tidak didukung. |
BigQuery ML
Batas berikut berlaku untuk BigQuery ML.
Tugas kueri
Semua kuota dan batas tugas kueri berlaku untuk tugas kueri GoogleSQL yang menggunakan pernyataan dan fungsi BigQuery ML.
Laporan CREATE MODEL
Batas berikut berlaku untuk
tugas
CREATE MODEL
:
Batas | Default | Catatan |
---|---|---|
Kueri pernyataan CREATE MODEL per 48 jam untuk setiap project |
20.000 kueri pernyataan | Beberapa model dilatih dengan memanfaatkan layanan Vertex AI, yang memiliki pengelolaan kuota dan resource sendiri. |
Batas waktu eksekusi | 24 jam atau 72 jam | Waktu tunggu tugas CREATE MODEL secara default adalah 24 jam, dengan pengecualian tugas deret waktu, AutoML, dan penyesuaian hyperparameter yang waktu tunggunya 72 jam. |
Fungsi layanan Vertex AI dan Cloud AI
Batas berikut berlaku untuk fungsi yang menggunakan model bahasa besar (LLM) Vertex AI dan layanan Cloud AI:
Fungsi | Permintaan per menit | Baris per tugas | Jumlah tugas yang berjalan serentak |
---|---|---|---|
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.5-pro |
60 | 21.600 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.5-flash |
200 | 72.000 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro-vision di wilayah us-central1 |
100 | 20.000 | 1 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro-vision di wilayah selain us-central1 |
10 | 3.600 | 1 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui
model gemini-1.0-pro di wilayah us-central1 |
300 | 108.000 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui
model gemini-1.0-pro di wilayah selain us-central1 |
10 | 3.600 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model Claude Anthropic |
30 | 10.800 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui
model text-bison |
1.600 | 576.000 | 5 |
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui
model text-bison-32 |
300 | 108.000 | 5 |
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui
model Vertex AI multimodalembedding di satu region Eropa yang didukung |
120 | 14.000 | 5 |
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui
model Vertex AI multimodalembedding di region selain region tunggal Eropa yang didukung |
600 | 25.000 | 5 |
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui
model text-embedding dan
text-multilingual-embedding Vertex AI di region us-central1 |
1.500 | 2.700.000 | 1 |
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui
model text-embedding dan
text-multilingual-embedding Vertex AI di region selain us-central1 |
100 | 324.000 | 1 |
ML.PROCESS_DOCUMENT dengan dokumen rata-rata satu halaman |
600 | 150.000 | 5 |
ML.PROCESS_DOCUMENT dengan dokumen rata-rata sepuluh halaman |
600 | 100.000 | 5 |
ML.PROCESS_DOCUMENT dengan dokumen rata-rata lima puluh halaman |
600 | 15.000 | 5 |
ML.TRANSCRIBE |
200 | 10.000 | 5 |
ML.ANNOTATE_IMAGE |
1.800 | 648.000 | 5 |
ML.TRANSLATE |
6.000 | 2.160.000 | 5 |
ML.UNDERSTAND_TEXT |
600 | 21.600 | 5 |
Untuk mengetahui informasi selengkapnya tentang kuota untuk LLM Vertex AI dan API layanan Cloud AI, lihat dokumen berikut:
- Batas kuota AI Generatif di Vertex AI
- Kuota dan batas Cloud Translation API
- Kuota dan batas Vision API
- Kuota dan batas Natural Language API
- Kuota dan batas Document AI
- Kuota dan batas Speech-to-Text
Kuota baris per tugas mewakili jumlah baris teoretis tertinggi yang dapat ditangani sistem dalam jangka waktu 6 jam. Jumlah baris yang sebenarnya diproses
bergantung pada banyak faktor lainnya, termasuk ukuran input dan kondisi jaringan.
Misalnya, ML.TRANSCRIBE
dapat memproses lebih banyak audio singkat daripada audio panjang.
Untuk meminta lebih banyak kuota untuk fungsi BigQuery ML, sesuaikan kuota untuk layanan LLM Vertex AI atau Cloud AI terkait terlebih dahulu, lalu kirim email ke bqml-feedback@google.com dan sertakan informasi tentang kuota layanan LLM atau Cloud AI yang disesuaikan. Untuk informasi selengkapnya tentang cara meminta lebih banyak kuota untuk layanan ini, lihat Meminta kuota yang lebih tinggi.
Definisi kuota
Daftar berikut menjelaskan kuota yang berlaku untuk fungsi layanan Vertex AI dan Cloud AI:
- Fungsi yang memanggil model dasar Vertex AI menggunakan satu kuota Vertex AI, yaitu kueri per menit (QPM). Dalam konteks ini, kueri adalah panggilan permintaan dari fungsi ke API model Vertex AI. Kuota QPM berlaku untuk model dasar dan semua versi, ID, dan versi yang disesuaikan dari model tersebut. Untuk mengetahui informasi selengkapnya tentang kuota model dasar Vertex AI, lihat Kuota per region dan model.
- Fungsi yang memanggil layanan Cloud AI menggunakan kuota permintaan layanan target. Periksa referensi kuota layanan Cloud AI yang diberikan untuk mengetahui detailnya.
BigQuery ML menggunakan tiga kuota:
Permintaan per menit. Kuota ini adalah batas jumlah panggilan permintaan per menit yang dapat dilakukan fungsi ke API model Vertex AI atau layanan Cloud AI. Batas ini berlaku untuk setiap project.
Untuk fungsi yang memanggil model dasar Vertex AI, jumlah panggilan permintaan per menit bervariasi bergantung pada endpoint, versi, dan region model Vertex AI. Kuota ini secara konseptual sama dengan kuota QPM yang digunakan oleh Vertex AI, tetapi mungkin memiliki nilai yang lebih kecil daripada kuota QPM untuk model yang sesuai.
Baris per tugas. Kuota ini adalah batas jumlah baris yang diizinkan untuk setiap tugas kueri.
Jumlah tugas yang berjalan serentak. Kuota ini adalah batas per project untuk jumlah kueri SQL yang dapat berjalan secara bersamaan untuk fungsi tertentu.
Contoh berikut menunjukkan cara menafsirkan batasan kuota dalam situasi umum:
Saya memiliki kuota 1.000 QPM di Vertex AI, sehingga kueri dengan 100.000 baris akan memerlukan waktu sekitar 100 menit. Mengapa tugas berjalan lebih lama?
Runtime tugas dapat bervariasi bahkan untuk data input yang sama. Di Vertex AI, panggilan prosedur jarak jauh (RPC) memiliki prioritas yang berbeda untuk menghindari pemborosan kuota. Jika kuota tidak cukup, RPC dengan prioritas yang lebih rendah akan menunggu dan mungkin gagal jika waktu pemrosesannya terlalu lama.
Bagaimana cara menafsirkan baris per kuota tugas?
Di BigQuery, kueri dapat dieksekusi hingga enam jam. Baris maksimum yang didukung adalah fungsi dari linimasa ini dan kuota QPM Vertex AI Anda, untuk memastikan bahwa BigQuery dapat menyelesaikan pemrosesan kueri dalam enam jam. Karena kueri biasanya tidak dapat menggunakan seluruh kuota, jumlah ini lebih rendah daripada kuota QPM Anda yang dikalikan dengan 360.
Apa yang terjadi jika saya menjalankan tugas inferensi batch pada tabel dengan lebih banyak baris daripada kuota baris per tugas, misalnya 10.000.000 baris?
BigQuery hanya memproses jumlah baris yang ditentukan oleh kuota baris per tugas. Anda hanya akan ditagih untuk panggilan API yang berhasil untuk jumlah baris tersebut, bukan 10.000.000 baris penuh dalam tabel Anda. Untuk baris lainnya, BigQuery merespons permintaan dengan error
A retryable error occurred: the maximum size quota per query has reached
, yang ditampilkan di kolomstatus
pada hasil. Anda dapat menggunakan kumpulan skrip SQL ini atau paket Dataform ini untuk melakukan iterasi melalui panggilan inferensi hingga semua baris berhasil diproses.Saya memiliki lebih banyak baris yang harus diproses daripada kuota baris per tugas. Apakah membagi baris saya di beberapa kueri dan menjalankannya secara bersamaan akan membantu?
Tidak, karena kueri ini menggunakan kuota permintaan per menit BigQuery ML dan kuota QPM Vertex AI yang sama. Jika ada beberapa kueri yang semuanya tetap berada dalam kuota baris per tugas dan jumlah kuota tugas yang berjalan serentak, pemrosesan kumulatif akan menghabiskan kuota permintaan per menit.
BI Engine
Batas berikut berlaku untuk BigQuery BI Engine.
Batas | Default | Catatan |
---|---|---|
Ukuran pemesanan maksimum per project per lokasi (Antarmuka SQL) | 250 GiB | Berlaku saat menggunakan BI Engine dengan BigQuery. Berlaku dalam semua kasus kecuali Looker Studio tanpa integrasi native.
Anda dapat meminta peningkatan kapasitas pemesanan maksimum untuk project Anda. Peningkatan pemesanan tersedia di sebagian besar region, dan mungkin memerlukan waktu pemrosesan antara 3 hari hingga satu minggu. |
Ukuran pemesanan maksimum per project per lokasi (Looker Studio) | 100 GB | Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Batas ini tidak memengaruhi ukuran tabel yang Anda kueri karena BI Engine hanya memuat kolom yang digunakan dalam kueri Anda dalam memori, bukan seluruh tabel. |
Ukuran model data maksimum per tabel (Looker Studio) | 10 GB | Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Jika Anda memiliki pemesanan sebesar 100 GB per project per lokasi, BI Engine membatasi pemesanan per tabel menjadi 10 GB. Sisa pemesanan yang tersedia akan digunakan untuk tabel lain dalam project. |
Partisi maksimum per tabel (Looker Studio) | 500 partisi | Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga maksimum 500 partisi per tabel. |
Baris maksimum per kueri (Looker Studio) | 150 juta | Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga 150 juta baris data yang dikueri, bergantung pada kompleksitas kueri. |
Analytics Hub
Batas berikut berlaku untuk Analytics Hub:
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum pertukaran data per project | 500 pertukaran | Anda dapat membuat hingga 500 pertukaran data dalam satu project. |
Jumlah maksimum listingan per pertukaran data | 1.000 listingan | Anda dapat membuat hingga 1.000 listingan di pertukaran data. |
Jumlah maksimum set data tertaut per set data bersama | 1.000 set data tertaut | Jika digabungkan, semua pelanggan Analytics Hub dapat memiliki maksimum 1.000 set data tertaut per set data bersama. |
Kuota dan batas API
Kuota dan batas ini berlaku untuk permintaan BigQuery API.
BigQuery API
Kuota berikut berlaku untuk permintaan BigQuery API (inti):
Kuota | Default | Catatan |
---|---|---|
Permintaan per hari | Tak terbatas |
Project Anda dapat membuat permintaan BigQuery API dalam jumlah yang tidak terbatas per
hari.
Lihat kuota di Konsol Google Cloud |
Maksimum
tabledata.list byte per menit
|
7,5 GB di multi-region; 3,7 GB di semua region lainnya |
Project Anda dapat menampilkan maksimum 7,5 GB data baris tabel per
menit melalui tabledata.list di multi-region us dan
eu , serta 3,7 GB data baris tabel per menit
di semua region lain. Kuota ini berlaku untuk project yang berisi tabel yang sedang dibaca. API lain termasuk
jobs.getQueryResults dan
mengambil hasil dari
jobs.query dan
jobs.insert juga dapat memakai kuota ini.
Lihat kuota di Konsol Google Cloud
BigQuery Storage Read API
dapat mempertahankan throughput yang jauh lebih tinggi daripada |
Batas berikut berlaku untuk permintaan BigQuery API (inti):
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum permintaan API per detik per pengguna per metode | 100 permintaan | Pengguna dapat membuat hingga 100 permintaan API per detik untuk satu metode API. Jika pengguna membuat lebih dari 100 permintaan per detik ke suatu metode, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert. |
Jumlah maksimum permintaan API serentak per pengguna | 300 permintaan | Jika pengguna membuat lebih dari 300 permintaan serentak, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert. |
Ukuran header permintaan maksimum | 16 KiB |
Permintaan BigQuery API Anda dapat mencapai 16 KiB, termasuk URL permintaan dan semua header. Batas ini tidak berlaku untuk isi permintaan, seperti dalam permintaan POST .
|
Maksimum
jobs.get permintaan per detik
|
1.000 permintaan |
Project Anda dapat membuat hingga 1.000
permintaan jobs.get
per detik.
|
Ukuran respons maksimum
jobs.query
|
20 MB |
Secara default, tidak ada jumlah baris maksimum untuk jumlah baris data yang ditampilkan oleh jobs.query per halaman hasil. Namun, Anda dibatasi untuk ukuran respons maksimum sebesar 20 MB. Anda dapat mengubah jumlah baris yang akan ditampilkan dengan menggunakan parameter maxResults .
|
Ukuran baris
jobs.getQueryResults maksimum
|
20 MB | Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas ini diterapkan selama transcoding. |
Maksimum
projects.list permintaan per detik
|
2 permintaan |
Project Anda dapat membuat hingga dua
permintaan projects.list per detik.
|
Jumlah maksimum
tabledata.list permintaan per detik
|
1.000 permintaan |
Project Anda dapat membuat hingga 1.000 permintaan tabledata.list per detik.
|
Baris maksimum per respons
tabledata.list
|
100.000 baris |
Panggilan tabledata.list dapat menampilkan hingga 100.000 baris tabel.
Untuk informasi selengkapnya, lihat
Melakukan paging melalui hasil
menggunakan API.
|
Ukuran baris
tabledata.list maksimum
|
100 MB | Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas ini diterapkan selama transcoding. |
Maksimum
tables.insert permintaan per detik
|
10 permintaan |
Project Anda dapat membuat hingga 10 permintaan tables.insert per detik.
Metode tables.insert akan membuat tabel baru yang kosong dalam set data. Batas ini mencakup pernyataan SQL yang membuat
tabel, seperti
CREATE TABLE dan
kueri yang menulis hasil ke tabel tujuan.
|
BigQuery Connection API
Kuota berikut berlaku untuk permintaan BigQuery Connection API:
Kuota | Default | Catatan |
---|---|---|
Permintaan baca per menit | 1.000 permintaan per menit |
Project Anda dapat membuat hingga 1.000 permintaan per menit ke metode BigQuery Connection API yang membaca data koneksi.
Lihat kuota di Konsol Google Cloud |
Permintaan tulis per menit | 100 permintaan per menit |
Project Anda dapat membuat hingga 100 permintaan per menit ke metode BigQuery Connection API
yang membuat atau mengupdate koneksi.
Lihat kuota di Konsol Google Cloud |
Koneksi BigQuery Omni yang dibuat per menit | 10 koneksi dibuat per menit | Project Anda dapat membuat total hingga 10 koneksi BigQuery Omni di AWS dan Azure per menit. |
Penggunaan koneksi BigQuery Omni | 100 penggunaan koneksi per menit | Project Anda dapat menggunakan koneksi BigQuery Omni hingga 100 kali per menit. Hal ini berlaku untuk operasi yang menggunakan koneksi Anda untuk mengakses akun AWS, seperti membuat kueri tabel. |
BigQuery Migration API
Batas berikut berlaku untuk BigQuery Migration API:
Batas | Default | Catatan |
---|---|---|
Ukuran file individual untuk terjemahan SQL batch | 10 MB |
Ukuran maksimal setiap file sumber dan metadata adalah 10 MB.
Batas ini tidak berlaku untuk file ZIP metadata yang dihasilkan oleh
alat ekstraksi command line dwh-migration-dumper .
|
Ukuran total file sumber untuk terjemahan SQL batch | 1 GB | Ukuran total semua file input yang diupload ke Cloud Storage dapat berukuran hingga 1 GB. Ini mencakup semua file sumber, dan semua file metadata jika Anda memilih untuk menyertakannya. |
Ukuran string input untuk terjemahan SQL interaktif | 1 MB | String yang Anda masukkan untuk terjemahan SQL interaktif tidak boleh melebihi 1 MB. Saat menjalankan terjemahan interaktif menggunakan Translation API, batas ini berlaku untuk ukuran total semua input string. |
Ukuran file konfigurasi maksimum untuk terjemahan SQL interaktif | 50 MB |
Setiap file metadata (terkompresi) dan file konfigurasi YAML di Cloud Storage tidak boleh melebihi 50 MB. Jika ukuran file melebihi 50 MB,
penerjemah interaktif akan melewati file konfigurasi tersebut selama
penerjemahan dan menghasilkan pesan error. Salah satu metode untuk mengurangi ukuran file metadata adalah menggunakan flag —database atau –schema untuk memfilter database saat Anda membuat metadata.
|
Kuota berikut berlaku untuk BigQuery Migration API. Nilai default berikut berlaku dalam sebagian besar kasus. Setelan default untuk project Anda mungkin berbeda:
Kuota | Default | Catatan |
---|---|---|
Permintaan Daftar Layanan EDWMigration per menit Permintaan Daftar Layanan EDWMigration per menit per pengguna |
12.000 permintaan 2.500 permintaan |
Project Anda dapat membuat hingga 12.000 permintaan Daftar Migration API per menit. Setiap pengguna dapat membuat hingga 2.500 permintaan Daftar Migration API per menit. Lihat kuota di Konsol Google Cloud |
Permintaan Get Layanan EDWMigration per menit Permintaan Get Layanan EDWMigration per menit per pengguna |
25.000 permintaan 2.500 permintaan |
Project Anda dapat membuat hingga 25.000 permintaan Get Migration API per menit. Setiap pengguna dapat membuat hingga 2.500 permintaan Get Migration API per menit. Lihat kuota di Konsol Google Cloud |
Permintaan Lain Layanan EDWMigration per menit Permintaan Lain Layanan EDWMigration per menit per pengguna |
25 permintaan 5 permintaan |
Project Anda dapat membuat hingga 25 permintaan Migration API lainnya per menit. Setiap pengguna dapat membuat hingga 5 permintaan Migration API lain per menit. Lihat kuota di Konsol Google Cloud |
Permintaan terjemahan SQL interaktif per menit Permintaan terjemahan SQL interaktif per menit per pengguna |
200 permintaan 50 permintaan |
Project Anda dapat membuat hingga 200 permintaan layanan terjemahan SQL per menit. Setiap pengguna dapat membuat hingga 50 permintaan layanan terjemahan SQL lain per menit. Lihat kuota di Konsol Google Cloud |
BigQuery Reservation API
Kuota berikut berlaku untuk permintaan BigQuery Reservation API:
Kuota | Default | Catatan |
---|---|---|
Permintaan per menit per region | 100 permintaan |
Project Anda dapat melakukan total hingga 100 panggilan ke metode BigQuery Reservation API
per menit per region.
Lihat kuota di Konsol Google Cloud |
Jumlah SearchAllAssignments panggilan per menit per region
|
100 permintaan |
Project Anda dapat melakukan hingga 100 panggilan ke metode
SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud |
Permintaan sebesar SearchAllAssignments per menit per
region per pengguna
|
10 permintaan |
Setiap pengguna dapat melakukan hingga 10 panggilan ke metode
SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud (Di hasil penelusuran Konsol Google Cloud, telusuri per pengguna.) |
BigQuery Data Policy API
Batas berikut berlaku untuk Data Policy API (pratinjau):
Batas | Default | Catatan |
---|---|---|
Jumlah maksimum panggilan dataPolicies.list .
|
400 permintaan per menit per project 600 permintaan per menit per organisasi |
|
Jumlah maksimum panggilan dataPolicies.testIamPermissions .
|
400 permintaan per menit per project 600 permintaan per menit per organisasi |
|
Jumlah maksimum permintaan baca. |
1.200 permintaan per menit per project 1.800 permintaan per menit per organisasi |
Ini termasuk panggilan ke
dataPolicies.get
dan
dataPolicies.getIamPolicy .
|
Jumlah maksimum permintaan tulis. |
600 permintaan per menit per project 900 permintaan per menit per organisasi |
Panggilan ini mencakup: |
IAM API
Kuota berikut berlaku saat Anda menggunakan fitur Identity and Access Management di BigQuery untuk mengambil dan menetapkan kebijakan IAM, serta untuk menguji izin IAM.
Pernyataan bahasa kontrol data (DCL)
dihitung dalam kuota SetIAMPolicy
.
Kuota | Default | Catatan |
---|---|---|
IamPolicy permintaan per menit per pengguna |
1.500 permintaan per menit per pengguna | Setiap pengguna dapat membuat hingga 1.500 permintaan per menit per project. Lihat kuota di Konsol Google Cloud |
IamPolicy permintaan per menit per project |
3.000 permintaan per menit per project | Project Anda dapat membuat hingga 3.000 permintaan per menit. Lihat kuota di Konsol Google Cloud |
Permintaan SetIAMPolicy satu region per menit per project |
1.000 permintaan per menit per project | Project satu region Anda dapat membuat hingga 1.000 permintaan per
menit. Lihat kuota di Konsol Google Cloud |
Multi-region
SetIAMPolicy permintaan per menit per project |
2.000 permintaan per menit per project | Project multi-region Anda dapat membuat hingga 2.000 permintaan per menit. Lihat kuota di Konsol Google Cloud |
Omni-region
SetIAMPolicy permintaan per menit per project |
200 permintaan per menit per project | Project Omni-region Anda dapat membuat hingga 200 permintaan per menit. Lihat kuota di Konsol Google Cloud |
Storage Read API
Kuota berikut berlaku untuk permintaan BigQuery Storage Read API:
Kuota | Default | Catatan |
---|---|---|
Membaca permintaan bidang data per menit per pengguna | 25.000 permintaan |
Setiap pengguna dapat melakukan hingga 25.000 panggilan ReadRows per menit per project.
Lihat kuota di Konsol Google Cloud |
Permintaan bidang kontrol pembacaan per menit per pengguna | 5.000 permintaan |
Setiap pengguna dapat melakukan hingga 5.000 panggilan operasi metadata Storage Read API per menit per project. Panggilan metadata menyertakan metode CreateReadSession dan SplitReadStream .
Lihat kuota di Konsol Google Cloud |
Batas berikut berlaku untuk permintaan BigQuery Storage Read API:
Batas | Default | Catatan |
---|---|---|
Panjang maksimum baris/filter | 1 MB |
Saat menggunakan panggilan CreateReadSession Storage Read API, Anda dibatasi dengan panjang maksimum
1 MB untuk setiap baris atau filter.
|
Ukuran maksimum data berseri | 128 MB |
Saat Anda menggunakan panggilan ReadRows Storage Read API, representasi berseri data dalam setiap pesan
ReadRowsResponse tidak boleh lebih dari 128 MB.
|
Sambungan serentak maksimum | 2.000 di multi-region; 400 di region |
Anda dapat membuka maksimum 2.000 koneksi ReadRows serentak per project di multi-region us dan eu , serta 400 koneksi ReadRows serentak di region lain singkat ini. Dalam beberapa kasus, Anda mungkin dibatasi untuk lebih sedikit koneksi serentak dari batas ini.
|
Penggunaan memori maksimum per streaming | 1,5 GB | Memori per streaming maksimum bersifat perkiraan karena batasnya didasarkan pada representasi internal data baris. Streaming yang menggunakan lebih dari 1,5 GB memori untuk satu baris dapat gagal. Untuk mengetahui informasi selengkapnya, lihat Memecahkan masalah resource yang terlampaui. |
Storage Write API
Kuota berikut berlaku untuk permintaan Storage Write API. Kuota berikut dapat diterapkan di tingkat folder. Kuota ini kemudian digabungkan dan dibagikan ke semua project turunan. Untuk mengaktifkan konfigurasi ini, hubungi Cloud Customer Care.
Jika Anda berencana untuk meminta batas kuota yang lebih tinggi, sertakan pesan error kuota dalam permintaan Anda untuk mempercepat pemrosesan.
Kuota | Default | Catatan |
---|---|---|
Koneksi serentak | 1.000 di satu region; 10.000 di multi-region |
Kuota koneksi serentak didasarkan pada project klien yang memulai permintaan Storage Write API, bukan project yang berisi resource set data BigQuery. Project yang dimulai lebih awal adalah project yang terkait dengan kunci API atau akun layanan. Project Anda dapat beroperasi pada 1.000 koneksi serentak di satu region, atau 10.000 koneksi serentak di multi-region Saat Anda menggunakan aliran data default di Java atau Go, sebaiknya gunakan multiplexing Storage Write API untuk menulis ke beberapa tabel tujuan dengan koneksi bersama untuk mengurangi jumlah koneksi
keseluruhan yang diperlukan. Jika menggunakan
konektor
Beam dengan semantik setidaknya satu kali, Anda dapat menetapkan
UseStorageApiConnectionPool
ke Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas koneksi serentak berdasarkan region Anda. Opsinya adalah |
Throughput | Throughput 3 GB per detik di multi-region; 300 MB per detik di region |
Anda dapat melakukan streaming hingga 3 GBps di multi-region us dan
eu , serta 300 MBps di region lain per project.
Lihat kuota di Konsol Google Cloud Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas throughput berdasarkan region Anda. Opsinya adalah |
CreateWriteStream permintaan
|
10.000 aliran data setiap jam, per project per region |
Anda dapat memanggil CreateWriteStream hingga 10.000 kali per jam per project per region. Pertimbangkan untuk menggunakan aliran data default jika Anda tidak memerlukan semantik tepat satu kali.
Kuota ini adalah per jam, tetapi metrik yang ditampilkan di konsol Google Cloud adalah per menit.
|
Byte aliran data tertunda | 10 TB di multi-region; 1 TB di region |
Untuk setiap commit yang dipicu, Anda dapat meng-commit hingga 10 TB di
multi-region us dan eu , dan
1 TB di region lain. Tidak ada pelaporan kuota untuk kuota ini.
|
Batas berikut berlaku untuk permintaan Storage Write API:
Batas | Default | Catatan |
---|---|---|
Commit batch | 10.000 aliran data per tabel |
Anda dapat meng-commit hingga 10.000 aliran data dalam setiap panggilan BatchCommitWriteStream .
|
Ukuran permintaan AppendRows
|
10 MB | Ukuran permintaan maksimum adalah 10 MB. |
Streaming insert
Kuota dan batas berikut berlaku saat Anda melakukan streaming data ke BigQuery menggunakan legacy streaming API.
Untuk mengetahui informasi tentang strategi agar tidak melebihi batas ini, lihat Memecahkan masalah error kuota.
Jika melebihi kuota ini, Anda akan mendapatkan error quotaExceeded
.
Batas | Default | Catatan |
---|---|---|
Byte maksimum per detik per project di multi-region us dan eu
|
1 GB per detik |
Project Anda dapat melakukan streaming hingga 1 GB per detik. Kuota ini bersifat kumulatif dalam multi-region tertentu. Dengan kata lain, jumlah byte per detik yang di-streaming ke semua tabel untuk project tertentu dalam multi-region dibatasi hingga 1 GB.
Melebihi batas ini akan menyebabkan error Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan. |
Byte maksimum per detik per project di semua lokasi lain | 300 MB per detik |
Project Anda dapat melakukan streaming hingga 300 MB per detik di semua lokasi kecuali multi-region
Melebihi batas ini akan menyebabkan error Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan. |
Ukuran baris maksimum | 10 MB |
Melebihi nilai ini akan menyebabkan error invalid .
|
Batas ukuran permintaan HTTP | 10 MB |
Melebihi nilai ini akan menyebabkan error Secara internal, permintaan diterjemahkan dari JSON HTTP ke dalam struktur data internal. Struktur data yang diterjemahkan memiliki batas ukuran yang diterapkan sendiri. Sulit untuk memprediksi ukuran struktur data internal yang dihasilkan, tetapi jika Anda mempertahankan permintaan HTTP ke 10 MB atau kurang, kemungkinan mencapai batas internal akan rendah. |
Baris maksimum per permintaan | 50.000 baris | Jumlah maksimum yang disarankan adalah 500 baris. Batching dapat meningkatkan performa dan throughput pada suatu titik, tetapi memiliki biaya latensi per permintaan yang rendah. Terlalu sedikit baris per permintaan dan adanya overhead di setiap permintaan dapat menyebabkan penyerapan jadi tidak efisien. Terlalu banyak baris per permintaan dan throughput dapat menurunkan performa. Bereksperimenlah dengan data representatif (ukuran skema dan data) untuk menentukan ukuran batch yang ideal untuk data Anda. |
Panjang kolom insertId
|
128 karakter |
Melebihi nilai ini akan menyebabkan error invalid .
|
Untuk kuota streaming tambahan, lihat artikel Meminta penambahan kuota.
Bandwidth
Kuota berikut berlaku untuk bandwidth replikasi:
Kuota | Default | Catatan |
---|---|---|
Bandwidth replikasi pengisian ulang awal maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. | Kuota 10 Gbps fisik per region untuk sebagian besar project | |
Bandwidth replikasi berkelanjutan maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. | Kuota 5 GiBps fisik per region untuk sebagian besar project | |
Bandwidth replikasi turbo maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. | Kuota default 5 GiBps fisik per region untuk sebagian besar project | Kuota bandwidth replikasi Turbo tidak berlaku untuk operasi pengisian ulang awal. |
Jika bandwidth replika project melebihi kuota tertentu, replika dari project yang terpengaruh mungkin berhenti dengan error rateLimitExceeded
yang menyertakan detail kuota yang terlampaui.