Kuota dan batas

Dokumen ini berisi daftar quotas dan quotas yang berlaku untuk BigQuery.

Kuota membatasi jumlah resource Google Cloud bersama yang dapat digunakan project Google Cloud Anda, termasuk komponen hardware, software, dan jaringan. Oleh karena itu, kuota adalah bagian dari sistem yang melakukan hal berikut:

  • Memantau penggunaan atau pemakaian produk dan layanan Google Cloud oleh Anda.
  • Membatasi Anda konsumsi resource tersebut, karena alasan yang mencakup memastikan keadilan dan mengurangi lonjakan penggunaan.
  • Mempertahankan konfigurasi yang secara otomatis menerapkan pembatasan yang telah ditentukan.
  • Menyediakan sarana untuk meminta atau membuat perubahan pada kuota.

Pada umumnya, jika kuota terlampaui, sistem akan langsung memblokir akses ke resource Google yang relevan, dan tugas yang Anda coba lakukan akan gagal. Pada umumnya, kuota berlaku untuk setiap project Google Cloud serta digunakan bersama oleh semua aplikasi dan alamat IP yang menggunakan project Google Cloud tersebut.

Ada juga batas untuk resource BigQuery. Batas ini tidak terkait dengan sistem kuota. Batas tidak dapat diubah kecuali jika dinyatakan lain.

Secara default, kuota dan batas BigQuery berlaku per project. Kuota dan batas yang berlaku pada dasar yang berbeda ditunjukkan sebagai berikut; misalnya, jumlah maksimum kolom per tabel, atau jumlah maksimum permintaan API serentak per pengguna. Kebijakan tertentu bervariasi bergantung pada ketersediaan resource, profil pengguna, histori Service Usage, serta faktor lainnya, dan dapat berubah tanpa pemberitahuan.

Pengisian kuota

Kuota harian diisi ulang secara berkala sepanjang hari, yang mencerminkan intent-nya untuk memandu perilaku pembatasan kapasitas. Pemuatan ulang sesekali juga dilakukan untuk mencegah gangguan lama saat kuota habis. Lebih banyak kuota biasanya tersedia dalam hitungan menit daripada pengisian ulang secara global sekali sehari.

Meminta penambahan kuota

Untuk menambah atau mengurangi sebagian besar kuota, gunakan Konsol Google Cloud. Untuk mengetahui informasi lebih lanjut, lihat artikel Meminta kuota yang lebih tinggi.

Untuk panduan langkah demi langkah melalui proses permintaan penambahan kuota di Konsol Google Cloud, klik Guide me:

Pandu saya

Membatasi penggunaan kuota

Untuk mempelajari cara membatasi penggunaan resource tertentu dengan menentukan kuota yang lebih kecil daripada default, lihat Membatasi penggunaan.

Izin yang diperlukan

Untuk melihat dan mengupdate kuota BigQuery di Konsol Google Cloud, Anda memerlukan izin yang sama seperti kuota Google Cloud. Untuk informasi selengkapnya, lihat izin kuota Google Cloud.

Memecahkan masalah

Untuk mengetahui informasi tentang cara memecahkan masalah error yang terkait dengan kuota dan batas, baca artikel Memecahkan masalah error kuota BigQuery.

Tugas

Kuota dan batas berlaku untuk tugas yang dijalankan BigQuery atas nama Anda, baik dijalankan dengan menggunakan Konsol Google Cloud, alat command line bq, maupun secara terprogram menggunakan REST API atau library klien.

Tugas kueri

Kuota berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query dan jenis kueri jobs.insert:

Kuota Default Notes
Penggunaan kueri per hari Tak terbatas Tidak ada batas jumlah byte yang dapat diproses oleh kueri dalam sebuah project.
Lihat kuota di Konsol Google Cloud
Penggunaan kueri per hari per pengguna Tak terbatas Tidak ada batas jumlah byte yang dapat diproses kueri pengguna setiap hari.
Lihat kuota di Konsol Google Cloud
Byte lintas region kueri gabungan Cloud SQL per hari 1 TB Jika lokasi pemrosesan kueri BigQuery dan lokasi instance Cloud SQL berbeda, maka kueri Anda adalah kueri lintas region. Project Anda dapat berjalan hingga 1 TB dalam kueri lintas region per hari. Lihat Kueri gabungan Cloud SQL.
Lihat kuota di Konsol Google Cloud
Byte per hari yang ditransfer lintas-cloud 1 TB Anda dapat mentransfer hingga 1 TB data per hari dari bucket Amazon S3 atau dari Azure Blob Storage. Untuk mengetahui informasi selengkapnya, lihat Transfer lintas-cloud dari Amazon S3 dan Azure.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query dan jenis kueri jobs.insert:

Batas Default Notes
Jumlah maksimum kueri interaktif dalam antrean 1.000 kueri Project Anda dapat mengantrekan hingga 1.000 kueri interaktif. Kueri interaktif tambahan yang melebihi batas ini akan menampilkan error kuota.
Jumlah maksimum kueri batch dalam antrean 20.000 kueri Project Anda dapat mengantrekan hingga 20.000 kueri batch. Kueri batch tambahan yang melebihi batas ini akan menampilkan error kuota.
Jumlah maksimum kueri interaktif serentak terhadap sumber data eksternal Bigtable 16 kueri Project Anda dapat menjalankan hingga enam belas kueri serentak terhadap sumber data eksternal Bigtable.
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh 10 kueri Anda dapat menjalankan hingga 10 kueri serentak dengan fungsi jarak jauh per project.
Jumlah maksimum kueri multi-pernyataan serentak 1.000 kueri multi-pernyataan Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak. Untuk mengetahui kuota dan batas lainnya yang terkait dengan kueri multi-pernyataan, lihat Kueri multi-pernyataan.
Jumlah maksimum kueri legacy SQL serentak yang berisi UDF 6 kueri Project Anda dapat menjalankan hingga 6 kueri legacy SQL secara serentak dengan fungsi yang ditentukan pengguna (UDF). Batas ini mencakup kueri interaktif dan batch. Kueri interaktif yang berisi UDF juga diperhitungkan dalam batas serentak untuk kueri teraktif. Batas ini tidak berlaku untuk kueri GoogleSQL.
Batas ukuran kueri harian Tak terbatas Secara default, tidak ada batas ukuran kueri harian. Namun, Anda dapat menetapkan batas jumlah data yang dapat dibuat kueri oleh pengguna dengan membuat kuota kustom untuk mengontrol penggunaan kueri per hari atau penggunaan kueri per hari per pengguna.
Batas update tabel tujuan harian Lihat Jumlah maksimum operasi tabel per hari. Update pada tabel tujuan dalam tugas kueri akan mengurangi batas jumlah maksimum operasi tabel per hari untuk tabel tujuan. Update tabel tujuan mencakup operasi penambahan dan penimpaan yang dijalankan oleh kueri yang Anda jalankan menggunakan Konsol Google Cloud, menggunakan alat command line bq, atau memanggil metode API jobs.query dan jenis kueri jobs.insert.
Batas waktu eksekusi kueri multi-pernyataan/kueri 6 jam

Kueri atau kueri multi-pernyataan dapat dijalankan hingga 6 jam, lalu gagal. Namun, terkadang kueri dicoba lagi. Kueri dapat dicoba hingga tiga kali, dan setiap percobaan dapat dijalankan hingga 6 jam. Akibatnya, kueri mungkin memiliki total runtime lebih dari 6 jam.

Waktu tunggu tugas CREATE MODEL ditetapkan secara default ke 24 jam, kecuali untuk tugas deret waktu, AutoML, dan penyesuaian hyperparameter yang memiliki waktu tunggu 72 jam.

Jumlah maksimum resource yang dirujuk per kueri 1.000 resource Kueri dapat merujuk hingga total 1.000 tabel unik, tampilan unik, fungsi yang ditentukan pengguna (UDF) unik, dan fungsi tabel unik setelah perluasan penuh. Batas ini mencakup hal berikut:
  • Tabel, tampilan, UDF, dan fungsi tabel yang dirujuk langsung oleh kueri.
  • Tabel, tampilan, UDF, dan fungsi tabel yang dirujuk oleh tampilan/UDF/fungsi tabel lain yang dirujuk dalam kueri.
Panjang maksimum kueri legacy SQL yang belum terselesaikan 256 KB Panjang kueri legacy SQL yang belum terselesaikan dapat mencapai 256 KB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
Panjang maksimum kueri GoogleSQL yang belum terselesaikan 1 MB Panjang kueri GoogleSQL yang belum terselesaikan dapat mencapai 1 MB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
Panjang maksimum kueri GoogleSQL dan lama yang diselesaikan 12 MB Batas ukuran kueri yang sudah diselesaikan mencakup ukuran semua tampilan dan tabel karakter pengganti yang dirujuk oleh kueri.
Jumlah maksimum parameter kueri GoogleSQL 10.000 parameter Kueri GoogleSQL dapat memiliki hingga 10.000 parameter.
Ukuran permintaan maksimum 10 MB Ukuran permintaan maksimal 10 MB, termasuk properti tambahan seperti parameter kueri.
Ukuran respons maksimum 10 GB dikompresi Ukuran bervariasi tergantung pada rasio kompresi data. Ukuran respons yang sebenarnya mungkin lebih besar dari 10 GB secara signifikan. Ukuran respons maksimum menjadi tidak terbatas saat menulis hasil kueri dalam jumlah besar ke tabel tujuan.
Ukuran baris maksimum 100 MB Ukuran baris maksimum merupakan perkiraan, karena batasnya didasarkan pada representasi internal dari data baris. Batas ukuran baris maksimum diterapkan selama tahap tertentu dari eksekusi tugas kueri.
Kolom maksimum dalam tabel, hasil kueri, atau definisi tampilan 10.000 kolom Tabel, hasil kueri, atau definisi tampilan dapat memiliki hingga 10.000 kolom.
Slot serentak maksimum untuk harga sesuai permintaan 2.000 slot Dengan harga sesuai permintaan, project Anda dapat memiliki hingga 2.000 slot serentak. Slot BigQuery dibagikan di antara semua kueri dalam satu project. BigQuery mungkin melakukan bursting di luar batas ini untuk mempercepat kueri Anda. Untuk memeriksa jumlah slot yang Anda gunakan, lihat Memantau BigQuery menggunakan Cloud Monitoring.
Penggunaan CPU maksimum per data yang dipindai untuk harga sesuai permintaan 256 detik CPU per MiB yang dipindai Dengan harga sesuai permintaan, kueri Anda dapat menggunakan hingga sekitar 256 detik CPU per MiB data yang dipindai. Jika kueri Anda terlalu menggunakan CPU untuk jumlah data yang sedang diproses, kueri akan gagal dengan menampilkan error billingTierLimitExceeded. Untuk mengetahui informasi selengkapnya, lihat billingTierLimitLimited.
Mutasi tabel transaksi multi-pernyataan 100 tabel Sebuah transaksi dapat mengubah data maksimal 100 tabel.
Modifikasi partisi transaksi multi-pernyataan 100.000 modifikasi partisi Satu transaksi dapat melakukan maksimal 100.000 modifikasi partisi.
Ukuran hasil kueri maksimum BigQuery Omni 20 GiB tidak dikompresi Ukuran hasil maksimum adalah 20 GiB byte logis saat membuat kueri data Azure atau AWS. Jika hasil kueri Anda lebih dari 20 GiB, pertimbangkan untuk mengekspor hasilnya ke Amazon S3 atau Blob Storage. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery.
Total ukuran hasil kueri BigQuery Omni per hari 1 TB Ukuran total hasil kueri untuk sebuah project adalah 1 TB per hari. Untuk mengetahui informasi selengkapnya, lihat Batasan BigQuery Omni.
Ukuran baris maksimum BigQuery Omni 10 MiB Ukuran baris maksimum adalah 10 MiB saat membuat kueri data Azure atau AWS. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery.

Meskipun kueri terjadwal menggunakan fitur BigQuery Data Transfer Service, kueri terjadwal bukanlah transfer, dan tidak tunduk pada batas tugas pemuatan.

Tugas ekspor

Batas berikut berlaku untuk tugas yang mengekspor data dari BigQuery dengan menggunakan alat command line bq, Konsol Google Cloud, atau metode API jenis ekspor jobs.insert.

Limit Default Catatan
Jumlah maksimum byte yang diekspor per hari 50 TB Anda dapat mengekspor hingga 50 TB (Tebibyte) data per hari dari sebuah project secara gratis menggunakan gabungan slot bersama. Anda dapat menyiapkan kebijakan pemberitahuan Cloud Monitoring yang memberikan notifikasi tentang jumlah byte yang diekspor. Untuk mengekspor lebih dari 50 TB (Tebibyte) data per hari, lakukan salah satu langkah berikut:
Jumlah maksimum tugas ekspor per hari 100.000 ekspor Anda dapat menjalankan hingga 100.000 ekspor per hari dalam sebuah project. Untuk menjalankan lebih dari 100.000 ekspor per hari, lakukan salah satu langkah berikut:
Ukuran tabel maksimum yang diekspor ke satu file 1 GB Anda dapat mengekspor hingga 1 GB data tabel ke satu file. Untuk mengekspor lebih dari 1 GB data, gunakan karakter pengganti untuk mengekspor data ke beberapa file. Saat Anda mengekspor data ke beberapa file, ukuran file akan bervariasi. Dalam beberapa kasus, ukuran file output lebih dari 1 GB.
URI karakter pengganti per ekspor 500 URI Ekspor dapat memiliki hingga 500 URI karakter pengganti.

Untuk mengetahui informasi selengkapnya tentang cara melihat penggunaan tugas ekspor saat ini, lihat Melihat penggunaan kuota saat ini.

Tugas pemuatan

Batas berikut berlaku saat Anda memuat data ke BigQuery, menggunakan Koncol Google Cloud, alat command line bq, atau metode API jenis pemuatan jobs.insert.

Limit Default Notes
Tugas pemuatan per tabel per hari 1.500 lowongan Tugas pemuatan, termasuk tugas pemuatan yang gagal, akan diperhitungkan dalam batas jumlah operasi tabel per hari untuk tabel tujuan. Untuk informasi tentang batas jumlah operasi tabel per hari untuk tabel standar dan tabel berpartisi, lihat Tabel.
Tugas pemuatan per hari 100.000 lowongan Project Anda akan diisi kembali dengan kuota maksimum 100.000 tugas pemuatan setiap 24 jam. Tugas pemuatan yang gagal akan mengurangi batas ini. Dalam beberapa kasus, Anda dapat menjalankan lebih dari 100.000 tugas pemuatan dalam 24 jam jika kuota hari sebelumnya tidak sepenuhnya digunakan.
Kolom maksimum per tabel 10.000 kolom Satu tabel dapat memiliki hingga 10.000 kolom.
Ukuran maksimum per tugas pemuatan 15 TB Ukuran total untuk semua file input CSV, JSON, Avro, Parquet, dan ORC Anda dapat berukuran hingga 15 TB.
Jumlah maksimum URI sumber dalam konfigurasi tugas 10.000 URI Konfigurasi tugas dapat memiliki hingga 10.000 URI sumber.
Jumlah file maksimum per tugas pemuatan 10.000.000 file Tugas pemuatan dapat memiliki total hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti.
Jumlah maksimum file dalam bucket Cloud Storage sumber Sekitar 60.000.000 file Tugas pemuatan dapat membaca dari bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file.
Batas waktu eksekusi tugas pemuatan 6 jam Tugas pemuatan akan gagal jika dijalankan lebih dari enam jam.
Avro: Ukuran maksimum untuk blok data file 16 MB Batas ukuran untuk blok data file Avro adalah 16 MB.
CSV: Ukuran sel maksimum 100 MB Sel CSV dapat berukuran hingga 100 MB.
CSV: Ukuran baris maksimum 100 MB Ukuran baris CSV maksimal 100 MB.
CSV: Ukuran file maksimum - dikompresi 4 GB Batas ukuran untuk file CSV yang dikompresi adalah 4 GB.
CSV: Ukuran file maksimum - tidak dikompresi 5 TB Batas ukuran untuk file CSV yang tidak dikompresi adalah 5 TB.
JSON: Ukuran baris maksimum 100 MB Ukuran baris JSON maksimal 100 MB.
JSON: Ukuran file maksimum - dikompresi 4 GB Batas ukuran untuk file JSON yang dikompresi adalah 4 GB.
JSON: Ukuran file maksimum - tidak dikompresi 5 TB Batas ukuran untuk file JSON yang tidak dikompresi adalah 5 TB.

Jika Anda secara rutin melebihi batas tugas pemuatan karena update yang sering dilakukan, pertimbangkan untuk melakukan streaming data ke BigQuery.

Untuk informasi tentang cara melihat penggunaan tugas pemuatan saat ini, lihat Melihat penggunaan kuota saat ini.

Pertimbangan kuota tugas pemuatan BigQuery Data Transfer Service

Tugas pemuatan yang dibuat oleh transfer BigQuery Data Transfer Service disertakan dalam kuota BigQuery pada tugas pemuatan. Penting untuk mempertimbangkan jumlah transfer yang Anda aktifkan di setiap project untuk mencegah transfer dan tugas pemuatan lainnya menghasilkan error quotaExceeded.

Anda dapat menggunakan persamaan berikut untuk memperkirakan jumlah tugas pemuatan yang diperlukan oleh transfer:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Dengan keterangan:

  • Number of transfers adalah jumlah konfigurasi transfer yang Anda aktifkan dalam project.
  • Number of tables adalah jumlah tabel yang dibuat oleh setiap jenis transfer tertentu. Jumlah tabel bervariasi menurut jenis transfer:

    • Transfer Campaign Manager membuat sekitar 25 tabel.
    • Transfer Google Ads membuat sekitar 60 tabel.
    • Transfer Google Ad Manager membuat sekitar 40 tabel.
    • Transfer Google Play membuat sekitar 25 tabel.
    • Transfer Search Ads 360 membuat sekitar 50 tabel.
    • Transfer YouTube membuat sekitar 50 tabel.
  • Schedule frequency menjelaskan seberapa sering transfer berjalan. Jadwal proses transfer disediakan untuk setiap jenis transfer:

  • Refresh window adalah jumlah hari yang akan disertakan dalam transfer data. Jika Anda memasukkan 1, tidak ada pengisian ulang harian.

Tugas penyalinan

Batas berikut berlaku untuk tugas BigQuery untuk menyalin tabel, termasuk tugas yang membuat salinan, clone, atau snapshot tabel standar, clone tabel, atau snapshot tabel. Batas ini berlaku untuk tugas yang dibuat menggunakan Konsol Google Cloud, alat command line bq, atau jenis salinan metode jobs.insert. Tugas penyalinan akan diperhitungkan dalam batas ini, terlepas dari apakah tugas tersebut berhasil atau gagal.

Batas Default Notes
Tugas penyalinan per tabel tujuan per hari Lihat Operasi tabel per hari.
Tugas penyalinan per hari 100.000 lowongan Project Anda dapat menjalankan hingga 100.000 tugas penyalinan per hari.
Tugas penyalinan lintas region per tabel tujuan per hari 100 lowongan Project Anda dapat menjalankan hingga 100 tugas penyalinan lintas region untuk tabel tujuan per hari.
Tugas penyalinan lintas region per hari 2.000 lowongan Project Anda dapat menjalankan hingga 2.000 tugas penyalinan lintas region per hari.
Jumlah tabel sumber yang akan disalin 1.200 tabel sumber Anda dapat menyalin hingga 1.200 tabel sumber per tugas penyalinan.

Untuk informasi tentang cara melihat penggunaan tugas penyalinan Anda saat ini, lihat Tugas penyalinan - Melihat penggunaan kuota saat ini.

Batas berikut berlaku untuk menyalin set data:

Batas Default Notes
Jumlah maksimum tabel dalam set data sumber 20.000 tabel Set data sumber dapat memiliki hingga 20.000 tabel.
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang sama 20.000 tabel Project Anda dapat menyalin 20.000 tabel per proses ke set data tujuan yang berada di region yang sama.
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang berbeda 1.000 tabel Project Anda dapat menyalin 1.000 tabel per proses ke set data tujuan yang berada di region berbeda. Misalnya, jika Anda mengonfigurasi salinan lintas region dari set data yang berisi 8.000 tabel, BigQuery Data Transfer Service akan otomatis membuat delapan proses secara berurutan. Proses pertama akan menyalin 1.000 tabel. Dua puluh empat jam kemudian, proses kedua akan menyalin 1.000 tabel. Proses ini berlanjut sampai semua tabel dalam set data disalin, hingga maksimum 20.000 tabel per set data.

Pemesanan

Kuota berikut berlaku untuk pemesanan:

Kuota Default Notes
Jumlah total slot untuk region Uni Eropa 5.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di multi-region Uni Eropa menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region AS 10.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di multi-region AS menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region us-east1 4.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region berikut:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
2.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region berikut:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
1.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region BigQuery Omni 100 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di region BigQuery Omni menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk semua region lain 500 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region lain menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk pemesanan:

Limit Nilai Notes
Jumlah project administrasi untuk pemesanan slot 5 project per organisasi Jumlah maksimum project dalam organisasi yang dapat berisi pemesanan atau komitmen aktif untuk slot bagi lokasi/region tertentu.
Jumlah maksimum pemesanan edisi standar 10 pemesanan per project Jumlah maksimum pemesanan edisi standar per project administrasi dalam sebuah organisasi untuk lokasi/region tertentu.
Jumlah maksimum reservasi edisi Enterprise atau Enterprise Plus 200 reservasi per project Jumlah maksimum reservasi edisi Enterprise atau Enterprise Plus per project administrasi dalam organisasi untuk lokasi / region tertentu.

Datasets

Batas berikut berlaku untuk set data BigQuery:

Batas Default Notes
Jumlah maksimum set data Tak terbatas Tidak ada batas jumlah set data yang dapat dimiliki project.
Jumlah tabel per set data Tak terbatas Saat Anda menggunakan panggilan API, performa enumerasi akan melambat saat Anda mendekati 50.000 tabel dalam set data. Konsol Google Cloud dapat menampilkan hingga 50.000 tabel untuk setiap set data.
Jumlah resource yang diotorisasi dalam daftar kontrol akses set data 2.500 resource Daftar kontrol akses set data dapat memiliki hingga total 2.500 resource yang diotorisasi, termasuk tampilan yang diotorisasi,set data yang diotorisasi, dan fungsi yang diotorisasi. Jika Anda melebihi batas ini karena banyaknya tampilan yang diotorisasi, pertimbangkan untuk mengelompokkan tampilan ke dalam set data yang diotorisasi.
Jumlah operasi update set data per set data per 10 detik 5 operasi Project Anda dapat melakukan hingga lima operasi update set data setiap 10 detik. Batas update set data mencakup semua operasi update metadata yang dilakukan oleh hal berikut:
Panjang maksimum deskripsi set data 16.384 karakter Saat Anda menambahkan deskripsi ke set data, jumlah karakter pada teks dapat berisi maksimal 16.384.

Tabel

Semua tabel

Batas berikut berlaku untuk semua tabel BigQuery.

Limit Default Notes
Panjang maksimum nama kolom 300 karakter Nama kolom Anda dapat berisi maksimal 300 karakter.
Panjang maksimum deskripsi kolom 1.024 karakter Saat Anda menambahkan deskripsi ke kolom, teks dapat berisi maksimal 1.024 karakter.
Kedalaman maksimum data bertingkat 15 tingkat Kolom jenis RECORD dapat berisi jenis RECORD bertingkat, yang juga disebut sebagai data turunan. Batas kedalaman maksimum bertingkat adalah 15 tingkat. Batas ini tidak bergantung pada apakah data berbasis skalar atau array (berulang).

Tabel standar

Batas berikut berlaku untuk tabel standar (bawaan) BigQuery:

Batas Default Catatan
Modifikasi tabel per hari 1.500 modifikasi

Project Anda dapat membuat hingga 1.500 modifikasi tabel per tabel per hari, baik ketika modifikasi menambahkan data, memperbarui data, maupun memotong tabel. Batas ini tidak dapat diubah dan mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari.

Kapasitas maksimum operasi update metadata tabel per tabel 5 operasi per 10 detik Project Anda dapat membuat hingga lima operasi update metadata tabel per 10 detik per tabel. Batas ini berlaku untuk semua operasi update metadata tabel, yang dilakukan oleh hal berikut: Batas ini juga mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan atau yang menggunakan pernyataan DML DELETE, INSERT, MERGE, TRUNCATE TABLE, atau, UPDATE untuk menulis data ke tabel. Perhatikan bahwa meskipun pernyataan DML diperhitungkan terhadap batas ini, pernyataan tersebut tidak akan dikenai jika batas tersebut tercapai. Operasi DML memiliki batas kapasitas khusus.

Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti Exceeded rate limits: too many table update operations for this table. Error ini bersifat sementara; Anda dapat mencoba lagi dengan backoff eksponensial.

Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log. Lihat Memecahkan masalah error kuota untuk mendapatkan panduan tentang cara mendiagnosis dan mengatasi error ini.

Jumlah kolom maksimum per tabel 10.000 kolom Setiap definisi tabel, hasil kueri, atau tampilan dapat memiliki hingga 10.000 kolom.

Tabel eksternal

Batas berikut berlaku untuk tabel BigQuery dengan data yang disimpan di Cloud Storage dalam format Parquet, ORC, Avro, CSV, atau JSON:

Limit Default Notes
Jumlah maksimum URI sumber per tabel eksternal 10.000 URI Setiap tabel eksternal dapat memiliki hingga 10.000 URI sumber.
Jumlah file maksimum per tabel eksternal 10.000.000 file Tabel eksternal dapat memiliki hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti.
Ukuran maksimum data yang disimpan di Cloud Storage per tabel eksternal 600 TB Tabel eksternal dapat memiliki hingga 600 terabyte di semua file input. Batas ini berlaku untuk ukuran file seperti yang disimpan di Cloud Storage; ukuran ini tidak sama dengan ukuran yang digunakan dalam formula pricing kueri. Untuk tabel yang dipartisi secara eksternal, batas ini akan diterapkan setelah pruning partisi.
Jumlah maksimum file dalam bucket Cloud Storage sumber Sekitar 60.000.000 file Tabel eksternal dapat merujuk bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file. Untuk tabel yang dipartisi secara eksternal, batas ini diterapkan sebelum pruning partisi.

Tabel yang dipartisi

Batas berikut berlaku untuk tabel yang dipartisi BigQuery.

Batas partisi berlaku untuk total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa partisi tujuan.

Satu tugas dapat memengaruhi beberapa partisi. Misalnya, tugas kueri dan tugas pemuatan dapat menulis ke beberapa partisi.

BigQuery menggunakan jumlah partisi yang dipengaruhi oleh tugas saat menentukan jumlah batas yang digunakan oleh tugas tersebut. Streaming insert tidak memengaruhi kuota ini.

Untuk mengetahui informasi tentang strategi agar tetap berada dalam batas tabel berpartisi, lihat Memecahkan masalah error kuota.

Batas Default Notes
Jumlah partisi per tabel berpartisi 4.000 partisi Setiap tabel berpartisi dapat memiliki hingga 4.000 partisi. Jika Anda melebihi batas ini, pertimbangkan untuk menggunakan pengelompokan sebagai tambahan dari, atau sebagai ganti, partisi.
Jumlah partisi yang diubah oleh satu tugas 4.000 partisi Setiap operasi tugas (kueri atau pemuatan) dapat memengaruhi hingga 4.000 partisi. BigQuery menolak semua tugas kueri atau pemuatan yang mencoba memodifikasi lebih dari 4.000 partisi.
Jumlah modifikasi partisi per tabel berpartisi berdasarkan waktu penyerapan per hari 5.000 modifikasi

Project Anda dapat membuat hingga 5.000 modifikasi partisi per hari, baik modifikasi menambahkan data, mengupdate data, maupun memotong tabel berpartisi berdasarkan waktu penyerapan.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari.

Jumlah modifikasi partisi per tabel berpartisi kolom per hari 30.000 modifikasi

Project Anda dapat membuat hingga 30.000 modifikasi partisi per hari untuk tabel berpartisi kolom.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari.

Kapasitas maksimum operasi update metadata tabel per tabel berpartisi 50 modifikasi per 10 detik Project Anda dapat membuat hingga 50 modifikasi per tabel berpartisi setiap 10 detik. Batas ini berlaku untuk semua operasi update metadata tabel berpartisi, yang dilakukan oleh hal berikut: Batas ini juga mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan atau yang menggunakan pernyataan DML DELETE, INSERT, MERGE, TRUNCATE TABLE, atau, UPDATE untuk menulis data ke tabel.

Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti Exceeded rate limits: too many partitioned table update operations for this table. Error ini bersifat sementara; Anda dapat mencoba lagi dengan backoff eksponensial.

Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log.

Jumlah rentang yang memungkinkan untuk partisi rentang 10.000 rentang Tabel berpartisi rentang dapat memiliki hingga 10.000 kemungkinan rentang. Batas ini berlaku untuk spesifikasi partisi saat Anda membuat tabel. Setelah membuat tabel, batas juga berlaku untuk jumlah partisi sebenarnya.

Clone tabel

Batas berikut berlaku untuk clone tabel BigQuery:

Batas Default Notes
Jumlah maksimum clone dan snapshot dalam rantai 3 clone atau snapshot tabel Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan.
Jumlah maksimum clone dan snapshot untuk tabel dasar 1.000 clone atau snapshot tabel Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas.

Snapshot tabel

Batas berikut berlaku untuk snapshot tabel BigQuery:

Batas Default Notes
Jumlah maksimum tugas snapshot tabel serentak 100 lowongan Project Anda dapat menjalankan hingga 100 tugas snapshot tabel serentak.
Jumlah maksimum tugas snapshot tabel per hari 50.000 pekerjaan Project Anda dapat menjalankan hingga 50.000 tugas snapshot tabel per hari.
Jumlah maksimum tugas snapshot tabel per tabel per hari 50 tugas Project Anda dapat menjalankan hingga 50 tugas snapshot tabel per tabel per hari.
Jumlah maksimum update metadata per snapshot tabel per 10 detik. 5 update Project Anda dapat mengupdate metadata snapshot tabel hingga lima kali setiap 10 detik.
Jumlah maksimum clone dan snapshot dalam rantai 3 clone atau snapshot tabel Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan.
Jumlah maksimum clone dan snapshot untuk tabel dasar 1.000 clone atau snapshot tabel Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas.

Tampilan

Kuota dan batas berikut berlaku untuk tampilan dan tampilan terwujud.

Tampilan logis

Batas berikut berlaku untuk tampilan standar BigQuery:

Batas Default Notes
Jumlah maksimum tingkat tampilan bertingkat 16 level BigQuery mendukung hingga 16 tingkat tampilan bertingkat. Jika ada lebih dari 16 tingkat, error INVALID_INPUT akan ditampilkan.
Panjang maksimum kueri GoogleSQL yang digunakan untuk menentukan tampilan 256 ribu karakter Satu kueri GoogleSQL yang menentukan tampilan dapat berisi hingga 256 K karakter. Batas ini berlaku untuk satu kueri dan tidak mencakup panjang tampilan yang dirujuk dalam kueri.
Jumlah maksimum tampilan yang diizinkan per set data Lihat Set data.

Tampilan terwujud

Batas berikut berlaku untuk tampilan terwujud BigQuery:

Limit Default Notes
Referensi tabel dasar (set data yang sama) 20 penayangan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 20 tampilan terwujud dari set data yang sama.
Referensi tabel dasar (project yang sama) 100 penayangan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 100 tampilan terwujud dari project yang sama.
Referensi tabel dasar (seluruh organisasi) 500 penayangan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 500 tampilan terwujud dari seluruh organisasi.
Jumlah maksimum tampilan yang diizinkan per set data Lihat Set data.

Indeks penelusuran

Batasan berikut berlaku untuk indeks penelusuran BigQuery:

Limit Default Notes
Jumlah pernyataan DDL CREATE INDEX per project per region per hari 500 operasi Project Anda dapat mengeluarkan hingga 500 operasi DDL CREATE INDEX setiap hari dalam suatu region.
Jumlah pernyataan DDL indeks penelusuran per tabel per hari 20 operasi Project Anda dapat menerbitkan hingga 20 operasi DDL CREATE INDEX atau DROP INDEX per tabel per hari.
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks penelusuran yang tidak dijalankan di reservasi 100 TB di multi-region; 20 TB di semua region lain Anda dapat membuat indeks penelusuran untuk tabel jika keseluruhan ukuran tabel yang memiliki indeks dalam organisasi di bawah batas region: 100 TB untuk multi-region US dan EU, serta 20 TB untuk semua region lain. Jika tugas pengelolaan indeks Anda berjalan di reservasi Anda sendiri, batas ini tidak berlaku.

Indeks vektor

Batasan berikut berlaku untuk indeks vektor BigQuery:

Limit Default Notes
Jumlah minimum baris tabel dasar 5.000 baris Tabel harus memiliki minimal 5.000 baris untuk membuat indeks vektor.
Jumlah maksimum baris tabel dasar 1.000.000.000 baris Sebuah tabel dapat memiliki paling banyak 1.000.000.000 baris untuk membuat indeks vektor.
Ukuran maksimum array di kolom yang diindeks 1.600 elemen Kolom yang akan diindeks dapat memiliki maksimal 1.600 elemen dalam array.
Ukuran tabel minimum untuk populasi indeks vektor 10 MB Jika Anda membuat indeks vektor pada tabel yang berukuran di bawah 10 MB, indeks tersebut tidak akan diisi. Demikian pula, jika Anda menghapus data dari tabel yang diindeks vektor sehingga ukuran tabel di bawah 10 MB, indeks vektor akan dinonaktifkan untuk sementara. Hal ini terjadi terlepas dari apakah Anda menggunakan reservasi sendiri untuk tugas pengelolaan indeks atau tidak. Setelah ukuran tabel yang diindeks vektor sekali lagi melebihi 10 MB, indeksnya akan diisi secara otomatis.
Jumlah pernyataan DDL CREATE VECTOR INDEX per project per region per hari 500 operasi Untuk setiap project, Anda dapat mengirimkan hingga 500 operasi CREATE VECTOR INDEX per hari untuk setiap region.
Jumlah pernyataan DDL indeks vektor per tabel per hari 10 operasi Anda dapat mengirimkan hingga 10 operasi CREATE VECTOR INDEX atau DROP VECTOR INDEX per tabel per hari.
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks vektor yang tidak dijalankan di reservasi 20 TB Anda dapat membuat indeks vektor untuk tabel jika ukuran total tabel yang memiliki indeks dalam organisasi Anda di bawah 20 TB. Jika tugas pengelolaan indeks Anda dijalankan di reservasi Anda sendiri, batas ini tidak berlaku.

Rutinitas

Kuota dan batas berikut berlaku untuk rutinitas.

Fungsi yang ditentukan pengguna (UDF)

Batasan berikut berlaku untuk fungsi yang ditentukan pengguna (UDF) sementara dan persisten dalam kueri GoogleSQL.

Limit Default Notes
Output maksimum per baris 5 MB Jumlah maksimum data yang dapat dihasilkan oleh UDF JavaScript Anda saat memproses satu baris adalah sekitar 5 MB.
Kueri legacy SQL serentak maksimum dengan UDF JavaScript 6 kueri Project Anda dapat memiliki hingga enam kueri legacy SQL serentak yang berisi UDF dalam JavaScript. Batas ini mencakup kueri interaktif dan kueri batch. Batas ini tidak berlaku untuk kueri GoogleSQL.
Resource UDF JavaScript maksimum per kueri 50 resource Tugas kueri dapat memiliki hingga 50 resource UDF JavaScript, seperti blob kode inline atau file eksternal.
Ukuran maksimum blob kode inline 32 KB Blob kode inline dalam UDF dapat berukuran hingga 32 KB.
Ukuran maksimum setiap resource kode eksternal 1 MB Ukuran maksimum setiap resource kode JavaScript adalah satu MB.

Batas berikut berlaku untuk UDF persisten:

Batas Default Notes
Panjang maksimum nama UDF 256 karakter Panjang nama UDF maksimal 256 karakter.
Jumlah maksimum argumen 256 argumen UDF dapat memiliki hingga 256 argumen.
Panjang maksimum nama argumen 128 karakter Nama argumen UDF dapat berisi hingga 128 karakter.
Kedalaman maksimum rantai referensi UDF 16 referensi Rantai referensi UDF dapat mencapai kedalaman 16 referensi.
Kedalaman maksimum argumen atau output jenis STRUCT 15 tingkat Argumen atau output UDF jenis STRUCT dapat mencapai kedalaman 15 tingkat.
Jumlah maksimum kolom dalam output atau argumen jenis STRUCT per UDF 1.024 kolom UDF dapat memiliki hingga 1.024 kolom dalam output dan argumen jenis STRUCT.
Jumlah maksimum library JavaScript dalam pernyataan CREATE FUNCTION 50 library Pernyataan CREATE FUNCTION dapat memiliki hingga 50 library JavaScript.
Panjang maksimum jalur library JavaScript yang disertakan 5.000 karakter Jalur untuk library JavaScript yang disertakan dalam UDF dapat memiliki hingga 5.000 karakter.
Kecepatan update maksimum per UDF per 10 detik 5 update Project Anda dapat mengupdate UDF hingga lima kali setiap 10 detik.
Jumlah maksimum UDF yang diizinkan per set data Lihat Set data.

Fungsi jarak jauh

Batas berikut berlaku untuk fungsi jarak jauh di BigQuery.

Batas Default Catatan
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh 10 kueri Anda dapat menjalankan hingga sepuluh kueri serentak dengan fungsi jarak jauh per project.
Ukuran input maksimum 5 MB Ukuran total maksimum semua argumen input dari satu baris adalah 5 MB.
Batas ukuran respons HTTP (Cloud Functions generasi ke-1) 10 MB Isi respons HTTP dari Cloud Functions generasi ke-1 maksimal 10 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri.
Batas ukuran respons HTTP (Cloud Functions generasi ke-2 atau Cloud Run) 15 MB Isi respons HTTP dari Cloud Functions generasi ke-2 atau Cloud Run maksimal 15 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri.
Batas waktu pemanggilan HTTP maks (Cloud Functions generasi ke-1 9 menit Anda dapat menetapkan batas waktu sendiri untuk Cloud Functions generasi ke-1 untuk pemanggilan HTTP individual, tetapi batas waktu maksimumnya adalah 9 menit. Melebihi batas waktu yang ditetapkan untuk Cloud Functions generasi ke-1 dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri setelah percobaan ulang dalam jumlah terbatas.
Batas waktu pemanggilan HTTP (Cloud Functions generasi ke-2 atau Cloud Run) 20 menit Batas waktu untuk setiap pemanggilan HTTP ke Cloud Functions generasi ke-2 atau Cloud Run. Melebihi nilai ini dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri setelah percobaan ulang dalam jumlah terbatas.

Fungsi tabel

Batas berikut berlaku untuk fungsi tabel BigQuery:

Batas Default Notes
Panjang maksimum nama fungsi tabel 256 karakter Panjang nama fungsi tabel maksimal 256 karakter.
Panjang maksimum nama argumen 128 karakter Panjang nama argumen fungsi tabel dapat mencapai 128 karakter.
Jumlah maksimum argumen 256 argumen Fungsi tabel dapat memiliki hingga 256 argumen.
Kedalaman maksimum rantai referensi fungsi tabel 16 referensi Rantai referensi fungsi tabel dapat memiliki hingga 16 referensi.
Kedalaman maksimum argumen atau output jenis STRUCT 15 tingkat Argumen STRUCT untuk fungsi tabel dapat memiliki kedalaman hingga 15 tingkat. Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki kedalaman hingga 15 tingkat.
Jumlah maksimum kolom dalam argumen atau tabel hasil dengan jenis STRUCT per fungsi tabel 1.024 kolom Argumen STRUCT untuk fungsi tabel dapat memiliki hingga 1.024 kolom. Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki hingga 1.024 kolom.
Jumlah kolom maksimum dalam tabel hasil 1.024 kolom Tabel yang ditampilkan oleh fungsi tabel dapat memiliki hingga 1.024 kolom.
Panjang maksimum nama kolom tabel hasil 128 karakter Panjang nama kolom dalam tabel yang ditampilkan dapat berisi hingga 128 karakter.
Jumlah maksimum update per fungsi tabel per 10 detik 5 update Project Anda dapat mengupdate fungsi tabel hingga lima kali setiap 10 detik.

Prosedur tersimpan untuk Apache Spark

Batas berikut berlaku untuk prosedur yang disimpan di BigQuery untuk Apache Spark:

Batas Default Catatan
Jumlah maksimum kueri prosedur tersimpan serentak 50 Anda dapat menjalankan hingga 50 kueri prosedur tersimpan serentak untuk setiap project.
Jumlah maksimum CPU yang sedang digunakan 12.000 Anda dapat menggunakan hingga 12.000 CPU untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini.

Anda dapat menggunakan hingga 2.400 CPU untuk setiap lokasi untuk setiap project, kecuali di lokasi berikut:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

Di lokasi ini, Anda dapat menggunakan hingga 500 CPU per lokasi untuk setiap project.

Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada dalam area geografis yang sama, kueri Anda mungkin menggunakan kuota CPU serentak yang sama.

Ukuran total maksimum persistent disk standar yang digunakan 204,8 TB

Anda dapat menggunakan persistent disk standar hingga 204,8 TB per lokasi untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini.

Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada di area geografis yang sama, kueri Anda mungkin akan menggunakan kuota persistent disk standar yang sama.

Notebook

Semua kuota dan batas Dataform serta kuota dan batas Colab Enterprise berlaku untuk notebook di BigQuery. Batasan berikut juga berlaku:

Batas Default Catatan
Ukuran maksimum notebook 20 MB

Ukuran notebook adalah total overhead konten, metadata, dan encoding.

Anda dapat melihat ukuran konten notebook dengan meluaskan header notebook, mengklik Lihat, lalu mengklik Info notebook.

Jumlah maksimum permintaan per detik ke Dataform 100 Notebook dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah notebook akan mengurangi kuota ini. Kuota ini dibagikan ke kueri tersimpan. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota.

Kueri tersimpan

Semua Kuota dan batas formulir data berlaku untuk kueri tersimpan. Batas berikut juga berlaku:

Batas Default Catatan
Ukuran maksimum kueri tersimpan 10 MB
Jumlah maksimum permintaan per detik ke Dataform 100 Kueri tersimpan dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah kueri tersimpan akan mengurangi kuota ini. Kuota ini dibagikan ke notebook. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota.

Bahasa pengolahan data

Batas berikut berlaku untuk pernyataan bahasa pengolahan data (DML) BigQuery:

Limit Default Notes
Pernyataan DML per hari Tak terbatas Jumlah pernyataan DML yang dapat dijalankan oleh proyek Anda per hari tidak terbatas.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari atau jumlah modifikasi tabel berpartisi per hari untuk tabel berpartisi.

Pernyataan DML memiliki batasan berikut yang harus diperhatikan.
Pernyataan DML bermutasi serentak per tabel 2 pernyataan BigQuery menjalankan hingga dua pernyataan DML bermutasi serentak (UPDATE, DELETE, dan MERGE) untuk setiap tabel. Pernyataan DML bermutasi tambahan untuk tabel sedang dimasukkan ke dalam antrean.
Pernyataan DML bermutasi yang diantrekan per tabel 20 laporan mutasi Sebuah tabel dapat memiliki hingga 20 pernyataan DML yang bermutasi dalam antrean yang menunggu untuk dijalankan. Jika Anda mengirimkan pernyataan DML bermutasi tambahan untuk tabel, pernyataan tersebut akan gagal.
Waktu maksimum dalam antrean untuk pernyataan DML 6 jam Pernyataan DML prioritas interaktif dapat menunggu dalam antrean hingga enam jam. Jika tidak berjalan setelah enam jam, pernyataan tersebut akan gagal.
Kecepatan maksimum pernyataan DML untuk setiap tabel 25 pernyataan setiap 10 detik Project Anda dapat menjalankan hingga 25 pernyataan DML setiap 10 detik untuk setiap tabel. Baik pernyataan INSERT maupun pernyataan DML yang bermutasi berkontribusi terhadap batas ini.

Untuk mengetahui informasi selengkapnya tentang mengubah pernyataan DML, lihat konkurensi DML INSERT dan konkurensi DML UPDATE, DELETE, MERGE.

Kueri multi-pernyataan

Batas berikut berlaku untuk kueri multi-pernyataan di BigQuery.

Limit Default Notes
Jumlah maksimum kueri multi-pernyataan serentak 1.000 kueri multi-pernyataan Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak.
Batas waktu kumulatif 24 jam Batas waktu kumulatif untuk kueri multi-pernyataan adalah 24 jam.
Batas waktu pernyataan 6 jam Batas waktu untuk setiap pernyataan dalam kueri multi-pernyataan adalah 6 jam.

CTE berulang dalam kueri

Batas berikut berlaku untuk ekspresi tabel umum (CTE) berulang di BigQuery.

Batas Default Notes
Batas iterasi 500 iterasi CTE berulang dapat menjalankan jumlah iterasi ini. Jika batas ini terlampaui, akan muncul error. Untuk mengatasi batas iterasi, lihat Memecahkan masalah error batas iterasi.

Keamanan tingkat baris

Batas berikut berlaku untuk kebijakan akses tingkat baris BigQuery:

Batas Default Catatan
Jumlah maksimum kebijakan akses baris per tabel 400 kebijakan Satu tabel dapat memiliki hingga 400 kebijakan akses baris.
Jumlah maksimum kebijakan akses baris per kueri 6.000 kebijakan Kueri dapat mengakses hingga total 6.000 kebijakan akses baris.
Jumlah maksimum pernyataan DDL CREATE/DROP per kebijakan per 10 detik 5 laporan mutasi Project Anda dapat membuat hingga lima pernyataan CREATE atau DROP per resource kebijakan akses baris setiap 10 detik.
Pernyataan DROP ALL ROW ACCESS POLICIES per tabel per 10 detik 5 laporan mutasi Project Anda dapat membuat hingga lima pernyataan DROP ALL ROW ACCESS POLICIES per tabel setiap 10 detik.

Kebijakan data

Batas berikut berlaku untuk penyamaran data dinamis tingkat kolom:

Limit Default Notes
Jumlah maksimum kebijakan data per tag kebijakan. 8 kebijakan per tag kebijakan Hingga delapan kebijakan data per tag kebijakan. Salah satu kebijakan ini dapat digunakan untuk kontrol akses tingkat kolom. Ekspresi penyamaran duplikat tidak didukung.

BigQuery ML

Batas berikut berlaku untuk BigQuery ML.

Tugas kueri

Semua kuota dan batas tugas kueri berlaku untuk tugas kueri GoogleSQL yang menggunakan pernyataan dan fungsi BigQuery ML.

Laporan CREATE MODEL

Batas berikut berlaku untuk tugas CREATE MODEL:

Batas Default Notes
Kueri pernyataan CREATE MODEL per 48 jam untuk setiap project 20.000 kueri pernyataan Beberapa model dilatih dengan memanfaatkan layanan Vertex AI, yang memiliki pengelolaan kuota dan resource sendiri.
Batas waktu eksekusi 24 jam atau 72 jam CREATE MODEL Waktu tunggu tugas ditetapkan secara default ke 24 jam, kecuali untuk tugas deret waktu, AutoML, dan penyesuaian hyperparameter yang waktu tunggunya habis pada 72 jam.

Fungsi layanan Vertex AI dan Cloud AI

Batasan berikut berlaku untuk fungsi yang menggunakan layanan model bahasa besar (LLM) dan Cloud AI Vertex AI:

Fungsi Permintaan per menit Baris per tugas Jumlah tugas yang berjalan serentak
ML.ANNOTATE_IMAGE 900 307.800 5
ML.TRANSLATE 3.000 1.026.000 5
ML.UNDERSTAND_TEXT 300 102.600 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-pro-vision 60 20.000 1
ML.GENERATE_TEXT saat menggunakan model jarak jauh daripada model selain gemini-pro-vision 60 30.000 5
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh daripada model multimodalembedding Vertex AI 120 25.000 1
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui model textembedding-gecko dan textembedding-gecko-multilingual Vertex AI 600 100.000.000 1
ML.PROCESS_DOCUMENT 600 205.200 5
ML.TRANSCRIBE 60 1.000 5

Untuk mengetahui informasi selengkapnya tentang kuota LLM Vertex AI dan API layanan Cloud AI, lihat dokumen berikut:

Untuk meminta lebih banyak kuota fungsi BigQuery ML, sesuaikan kuota untuk layanan LLM atau Cloud AI Vertex AI terlebih dahulu, lalu kirim email ke bqml-feedback@google.com dan sertakan informasi tentang kuota layanan LLM atau Cloud AI yang disesuaikan. Untuk mengetahui informasi lebih lanjut tentang cara meminta lebih banyak kuota untuk layanan ini, lihat Meminta kuota yang lebih tinggi.

Definisi kuota

Daftar berikut menjelaskan kuota yang berlaku untuk fungsi layanan Cloud AI dan Vertex AI:

  • Fungsi yang memanggil model dasar Vertex AI menggunakan satu kuota Vertex AI, yaitu kueri per menit (QPM). Dalam konteks ini, kuerinya adalah panggilan permintaan dari fungsi ke API model Vertex AI. Kuota QPM berlaku untuk model dasar dan semua versi, ID, serta versi yang telah disesuaikan dari model tersebut. Untuk mengetahui informasi selengkapnya tentang kuota model dasar Vertex AI, lihat Kuota per region dan model.
  • Fungsi yang memanggil layanan Cloud AI menggunakan kuota permintaan layanan target. Lihat referensi kuota layanan Cloud AI tertentu untuk mengetahui detailnya.
  • BigQuery ML menggunakan tiga kuota:

    • Permintaan per menit. Kuota ini adalah batas jumlah panggilan permintaan per menit yang dapat dilakukan fungsi ke model Vertex AI atau API layanan Cloud AI. Batas ini berlaku untuk setiap project.

      Untuk fungsi yang memanggil model dasar Vertex AI, jumlah panggilan permintaan per menit bervariasi bergantung pada endpoint, versi, dan region model Vertex AI. Kuota ini secara konseptual sama dengan kuota QPM yang digunakan oleh Vertex AI, tetapi mungkin memiliki nilai lebih kecil daripada kuota QPM untuk model yang sesuai.

    • Baris per tugas. Kuota ini adalah batas jumlah baris yang diizinkan untuk setiap tugas kueri.

    • Jumlah tugas yang berjalan serentak. Kuota ini adalah batas per project pada jumlah kueri SQL yang dapat dijalankan secara bersamaan untuk fungsi tertentu.

Contoh berikut menunjukkan cara menafsirkan batasan kuota dalam situasi umum:

  • Saya memiliki kuota 1.000 QPM di Vertex AI, jadi kueri dengan 100.000 baris akan memerlukan waktu sekitar 100 menit. Mengapa tugas ini berjalan lebih lama?

    Runtime tugas dapat bervariasi bahkan untuk data input yang sama. Di Vertex AI, remoteprocedure call (RPC) memiliki prioritas yang berbeda untuk menghindari pemborosan kuota. Jika kuota tidak cukup, RPC dengan prioritas lebih rendah akan menunggu dan mungkin gagal jika pemrosesannya terlalu lama.

  • Bagaimana cara menafsirkan baris per kuota tugas?

    Di BigQuery, kueri dapat dieksekusi hingga enam jam. Baris maksimum yang didukung adalah fungsi dari linimasa ini dan kuota Vertex AI QPM Anda, untuk memastikan bahwa BigQuery dapat menyelesaikan pemrosesan kueri dalam waktu enam jam. Karena biasanya kueri tidak dapat menggunakan seluruh kuota, jumlahnya lebih rendah daripada kuota QPM yang dikalikan dengan 360.

  • Apa yang terjadi jika saya menjalankan tugas inferensi batch pada tabel dengan baris lebih banyak daripada baris per kuota tugas, misalnya 10.000.000 baris?

    BigQuery hanya memproses jumlah baris yang ditentukan oleh baris per kuota tugas. Anda hanya dikenai biaya untuk panggilan API yang berhasil untuk jumlah baris tersebut, bukan 10.000.000 baris penuh di tabel Anda. Untuk baris lainnya, BigQuery merespons permintaan dengan error A retryable error occurred: the maximum size quota per query has reached, yang ditampilkan di kolom status hasil. Anda dapat menggunakan kumpulan skrip SQL ini atau paket Dataform ini untuk melakukan iterasi melalui panggilan inferensi hingga semua baris berhasil diproses.

  • Saya memiliki lebih banyak baris yang harus diproses daripada jumlah baris per kuota tugas. Apakah membagi baris menjadi beberapa kueri dan menjalankannya secara bersamaan dapat membantu?

    Tidak, karena kueri ini menggunakan kuota permintaan per menit BigQuery ML dan kuota QPM Vertex AI yang sama. Jika ada beberapa kueri yang semuanya berada dalam baris per kuota tugas dan jumlah kuota tugas yang berjalan serentak, pemrosesan kumulatif akan menghabiskan kuota permintaan per menit.

BI Engine

Batas berikut berlaku untuk BigQuery BI Engine.

Batas Default Notes
Ukuran pemesanan maksimum per project per lokasi (Antarmuka SQL) 250 GiB Berlaku saat menggunakan BI Engine dengan BigQuery. Berlaku di semua kasus kecuali Looker Studio tanpa integrasi native.

Anda dapat meminta peningkatan kapasitas reservasi maksimum untuk project Anda. Peningkatan pemesanan tersedia di sebagian besar region, dan mungkin memerlukan waktu pemrosesan antara 3 hari hingga satu minggu.
Ukuran pemesanan maksimum per project per lokasi (Looker Studio) 100 GB Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Batas ini tidak memengaruhi ukuran tabel yang Anda kueri karena BI Engine hanya memuat kolom yang digunakan dalam kueri Anda dalam memori, bukan seluruh tabel.
Ukuran model data maksimum per tabel (Looker Studio) 10 GB Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Jika Anda memiliki pemesanan sebesar 100 GB per project per lokasi, BI Engine membatasi pemesanan per tabel menjadi 10 GB. Sisa pemesanan yang tersedia akan digunakan untuk tabel lain dalam project.
Partisi maksimum per tabel (Looker Studio) 500 partisi Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga maksimum 500 partisi per tabel.
Baris maksimum per kueri (Looker Studio) 150 juta Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga 150 juta baris data yang dikueri, bergantung pada kompleksitas kueri.

Analytics Hub

Batas berikut berlaku untuk Analytics Hub:

Batas Default Notes
Jumlah maksimum pertukaran data per project 500 pertukaran Anda dapat membuat hingga 500 pertukaran data dalam satu project.
Jumlah maksimum listingan per pertukaran data 1.000 listingan Anda dapat membuat hingga 1.000 listingan di pertukaran data.
Jumlah maksimum set data tertaut per set data bersama 1.000 set data tertaut Jika digabungkan, semua pelanggan Analytics Hub dapat memiliki maksimum 1.000 set data tertaut per set data bersama.

Kuota dan batas API

Kuota dan batas ini berlaku untuk permintaan BigQuery API.

BigQuery API

Kuota berikut berlaku untuk permintaan BigQuery API (inti):

Kuota Default Notes
Permintaan per hari Tak terbatas Project Anda dapat membuat permintaan BigQuery API dalam jumlah yang tidak terbatas per hari.
Lihat kuota di Konsol Google Cloud
Maksimum tabledata.list byte per menit 7,5 GB di multi-region; 3,7 GB di semua region lainnya Project Anda dapat menampilkan maksimum 7,5 GB data baris tabel per menit melalui tabledata.list di multi-region us dan eu, serta 3,7 GB data baris tabel per menit di semua region lain. Kuota ini berlaku untuk project yang berisi tabel yang sedang dibaca. API lain termasuk jobs.getQueryResults dan mengambil hasil dari jobs.query dan jobs.insert juga dapat memakai kuota ini.
Lihat kuota di Konsol Google Cloud

BigQuery Storage Read API dapat mempertahankan throughput yang jauh lebih tinggi daripada tabledata.list. Jika Anda membutuhkan throughput lebih dari yang diizinkan berdasarkan kuota ini, pertimbangkan untuk menggunakan BigQuery Storage Read API.

Batas berikut berlaku untuk permintaan BigQuery API (inti):

Batas Default Notes
Jumlah maksimum permintaan API per detik per pengguna per metode 100 permintaan Pengguna dapat membuat hingga 100 permintaan API per detik untuk satu metode API. Jika pengguna membuat lebih dari 100 permintaan per detik ke suatu metode, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert.
Jumlah maksimum permintaan API serentak per pengguna 300 permintaan Jika pengguna membuat lebih dari 300 permintaan serentak, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert.
Ukuran header permintaan maksimum 16 KiB Permintaan BigQuery API Anda dapat mencapai 16 KiB, termasuk URL permintaan dan semua header. Batas ini tidak berlaku untuk isi permintaan, seperti dalam permintaan POST.
Maksimum jobs.get permintaan per detik 1.000 permintaan Project Anda dapat membuat hingga 1.000 permintaan jobs.get per detik.
Ukuran respons maksimum jobs.query 20 MB Secara default, tidak ada jumlah baris maksimum untuk jumlah baris data yang ditampilkan oleh jobs.query per halaman hasil. Namun, Anda dibatasi untuk ukuran respons maksimum sebesar 20 MB. Anda dapat mengubah jumlah baris yang akan ditampilkan dengan menggunakan parameter maxResults.
Ukuran baris maksimum jobs.getQueryResults 20 MB Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas diterapkan selama transcoding.
Maksimum projects.list permintaan per detik 2 permintaan Project Anda dapat membuat hingga dua permintaan projects.list per detik.
Jumlah maksimum tabledata.list permintaan per detik 1.000 permintaan Project Anda dapat membuat hingga 1.000 permintaan tabledata.list per detik.
Baris maksimum per respons tabledata.list 100.000 baris Panggilan tabledata.list dapat menampilkan hingga 100.000 baris tabel. Untuk informasi selengkapnya, lihat Melakukan paging melalui hasil menggunakan API.
Ukuran baris maksimum tabledata.list 100 MB Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas diterapkan selama transcoding.
Maksimum tables.insert permintaan per detik 10 permintaan Project Anda dapat membuat hingga 10 permintaan tables.insert per detik. Metode tables.insert akan membuat tabel baru yang kosong dalam set data. Batas ini mencakup pernyataan SQL yang membuat tabel, seperti CREATE TABLE dan kueri yang menulis hasil ke tabel tujuan.

BigQuery Connection API

Kuota berikut berlaku untuk permintaan BigQuery Connection API:

Kuota Default Notes
Permintaan baca per menit 1.000 permintaan per menit Project Anda dapat membuat hingga 1.000 permintaan per menit ke metode BigQuery Connection API yang membaca data koneksi.
Lihat kuota di Konsol Google Cloud
Permintaan tulis per menit 100 permintaan per menit Project Anda dapat membuat hingga 100 permintaan per menit ke metode BigQuery Connection API yang membuat atau mengupdate koneksi.
Lihat kuota di Konsol Google Cloud
Koneksi AWS per region 50 koneksi per region. Project Anda dapat memiliki hingga 50 koneksi AWS per region AWS.
Koneksi Azure per region 50 koneksi per region. Project Anda dapat memiliki hingga 50 koneksi Azure per region Azure.

BigQuery Migration API

Batas berikut berlaku untuk BigQuery Migration API:

Batas Default Notes
Ukuran file individual untuk terjemahan SQL batch 10 MB Ukuran maksimal setiap file sumber dan metadata adalah 10 MB. Batas ini tidak berlaku untuk file ZIP metadata yang dihasilkan oleh alat ekstraksi command line dwh-migration-dumper.
Ukuran total file sumber untuk terjemahan SQL batch 1 GB Ukuran total semua file input yang diupload ke Cloud Storage dapat berukuran hingga 1 GB. Ini mencakup semua file sumber, dan semua file metadata jika Anda memilih untuk menyertakannya.
Ukuran string input untuk terjemahan SQL interaktif 1 MB String yang Anda masukkan untuk terjemahan SQL interaktif tidak boleh melebihi 1 MB.
Ukuran file konfigurasi maksimum untuk terjemahan SQL interaktif 50 MB Setiap file metadata (terkompresi) dan file konfigurasi YAML di Cloud Storage tidak boleh melebihi 50 MB. Jika ukuran file melebihi 50 MB, penerjemah interaktif akan melewati file konfigurasi tersebut selama penerjemahan dan menghasilkan pesan error. Salah satu metode untuk mengurangi ukuran file metadata adalah menggunakan flag —database atau –schema untuk memfilter database saat Anda membuat metadata.

Kuota berikut berlaku untuk BigQuery Migration API. Nilai default berikut berlaku dalam sebagian besar kasus. Setelan default untuk project Anda mungkin berbeda:

Kuota Default Notes

Permintaan Daftar Layanan EDWMigration per menit

Permintaan Daftar Layanan EDWMigration per menit per pengguna

12.000 permintaan

2.500 permintaan

Project Anda dapat membuat hingga 12.000 permintaan Daftar Migration API per menit.

Setiap pengguna dapat membuat hingga 2.500 permintaan Daftar Migration API per menit.

Lihat kuota di Konsol Google Cloud

Permintaan Get Layanan EDWMigration per menit

Permintaan Get Layanan EDWMigration per menit per pengguna

25.000 permintaan

2.500 permintaan

Project Anda dapat membuat hingga 25.000 permintaan Get Migration API per menit.

Setiap pengguna dapat membuat hingga 2.500 permintaan Get Migration API per menit.

Lihat kuota di Konsol Google Cloud

Permintaan Lain Layanan EDWMigration per menit

Permintaan Lain Layanan EDWMigration per menit per pengguna

25 permintaan

5 permintaan

Project Anda dapat membuat hingga 25 permintaan Migration API lainnya per menit.

Setiap pengguna dapat membuat hingga 5 permintaan Migration API lain per menit.

Lihat kuota di Konsol Google Cloud

Permintaan terjemahan SQL interaktif per menit

Permintaan terjemahan SQL interaktif per menit per pengguna

200 permintaan

50 permintaan

Project Anda dapat membuat hingga 200 permintaan layanan terjemahan SQL per menit.

Setiap pengguna dapat membuat hingga 50 permintaan layanan terjemahan SQL lain per menit.

Lihat kuota di Konsol Google Cloud

BigQuery Reservation API

Kuota berikut berlaku untuk permintaan BigQuery Reservation API:

Kuota Default Notes
Permintaan per menit per region 100 permintaan Project Anda dapat melakukan total hingga 100 panggilan ke metode BigQuery Reservation API per menit per region.
Lihat kuota di Konsol Google Cloud
Jumlah SearchAllAssignments panggilan per menit per region 100 permintaan Project Anda dapat melakukan hingga 100 panggilan ke metode SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud
Permintaan sebesar SearchAllAssignments per menit per region per pengguna 10 permintaan Setiap pengguna dapat melakukan hingga 10 panggilan ke metode SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud
(Di hasil penelusuran Konsol Google Cloud, telusuri per pengguna.)

BigQuery Data Policy API

Batas berikut berlaku untuk Data Policy API (pratinjau):

Limit Default Catatan
Jumlah maksimum panggilan dataPolicy.list. 400 permintaan per menit per project

600 permintaan per menit per organisasi
Jumlah maksimum panggilan dataPolicy.testIamPermissions. 400 permintaan per menit per project

600 permintaan per menit per organisasi
Jumlah maksimum permintaan baca. 1.200 permintaan per menit per project

1.800 permintaan per menit per organisasi
Ini termasuk panggilan ke dataPolicy.get dan dataPolicy.getIamPolicy.
Jumlah maksimum permintaan tulis. 600 permintaan per menit per project

900 permintaan per menit per organisasi

Panggilan ini mencakup:

IAM API

Kuota berikut berlaku jika Anda menggunakan fitur Identity and Access Management di BigQuery untuk mengambil dan menetapkan kebijakan IAM, serta menguji izin IAM. Pernyataan bahasa kontrol data (DCL) mengurangi kuota SetIAMPolicy.

Kuota Default Notes
IamPolicy permintaan per menit per pengguna 1.500 permintaan per menit per pengguna Setiap pengguna dapat membuat hingga 1.500 permintaan per menit per project.
Lihat kuota di Konsol Google Cloud
IamPolicy permintaan per menit per project 3.000 permintaan per menit per project Project Anda dapat membuat hingga 3.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Permintaan region tunggal SetIAMPolicy per menit per project 1.000 permintaan per menit per project Project satu region dapat membuat hingga 1.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Multi-region SetIAMPolicy permintaan per menit per project 2.000 permintaan per menit per project Project multi-region dapat membuat hingga 2.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Omni-region SetIAMPolicy permintaan per menit per project 200 permintaan per menit per project Project Omni-region Anda dapat membuat hingga 200 permintaan per menit.
Lihat kuota di Konsol Google Cloud

Storage Read API

Kuota berikut berlaku untuk permintaan BigQuery Storage Read API:

Kuota Default Notes
Membaca permintaan bidang data per menit per pengguna 25.000 permintaan Setiap pengguna dapat melakukan hingga 25.000 panggilan ReadRows per menit per project.
Lihat kuota di Konsol Google Cloud
Permintaan bidang kontrol pembacaan per menit per pengguna 5.000 permintaan Setiap pengguna dapat melakukan hingga 5.000 panggilan operasi metadata Storage Read API per menit per project. Panggilan metadata menyertakan metode CreateReadSession dan SplitReadStream.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk permintaan BigQuery Storage Read API:

Batas Default Notes
Panjang maksimum baris/filter 1 MB Saat menggunakan panggilan CreateReadSession Storage Read API, Anda dibatasi dengan panjang maksimum 1 MB untuk setiap baris atau filter.
Ukuran maksimum data berseri 128 MB Saat Anda menggunakan panggilan ReadRows Storage Read API, representasi berseri data dalam setiap pesan ReadRowsResponse tidak boleh lebih dari 128 MB.
Sambungan serentak maksimum 2.000 di multi-region; 400 di region Anda dapat membuka maksimum 2.000 koneksi ReadRows serentak per project di multi-region us dan eu, serta 400 koneksi ReadRows serentak di region lain singkat ini. Dalam beberapa kasus, Anda mungkin dibatasi untuk lebih sedikit koneksi serentak dari batas ini.
Penggunaan memori per-streaming maksimum 1,5 GB Memori per-aliran maksimum bersifat perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Streaming yang menggunakan memori lebih dari 1,5 GB untuk satu baris mungkin akan gagal. Untuk mengetahui informasi selengkapnya, lihat Memecahkan masalah resource terlampaui.

Storage Write API

Kuota berikut berlaku untuk permintaan Storage Write API. Kuota berikut dapat diterapkan di tingkat folder. Kuota ini kemudian digabungkan dan dibagikan ke semua project turunan. Untuk mengaktifkan konfigurasi ini, hubungi Cloud Customer Care.

Jika Anda berencana meminta batas kuota yang lebih tinggi, sertakan pesan error kuota dalam permintaan untuk mempercepat pemrosesan.

Kuota Default Notes
Koneksi serentak 1.000 di satu region; 10.000 di multi-region

Kuota koneksi serentak didasarkan pada project klien yang memulai permintaan Storage Write API, bukan project yang berisi resource set data BigQuery. Project yang dimulai lebih awal adalah project yang terkait dengan kunci API atau akun layanan.

Project Anda dapat beroperasi pada 1.000 koneksi serentak di satu region, atau 10.000 koneksi serentak di multi-region US dan EU.

Saat Anda menggunakan aliran data default di Java atau Go, sebaiknya gunakan multiplexing Storage Write API untuk menulis ke beberapa tabel tujuan dengan koneksi bersama untuk mengurangi jumlah koneksi keseluruhan yang diperlukan.

Lihat kuota di Konsol Google Cloud

Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas koneksi serentak berdasarkan region Anda. Opsinya adalah ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU, dan ConcurrentWriteConnectionsPerProjectRegion masing-masing untuk us, eu, dan region lainnya.

Sebaiknya siapkan pemberitahuan untuk memantau penggunaan dan batas kuota. Selain itu, jika pola traffic Anda mengalami lonjakan dan/atau pertumbuhan organik reguler, akan bermanfaat untuk mempertimbangkan penyediaan kuota yang berlebihan sebesar 25 - 50% untuk menangani permintaan yang tidak terduga.

Throughput Throughput 3 GB per detik di multi-region; 300 MB per detik di region Anda dapat melakukan streaming hingga 3 GBps di multi-region us dan eu, serta 300 MBps di region lain per project.
Lihat kuota di Konsol Google Cloud

Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas throughput berdasarkan region Anda. Opsinya adalah AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU, dan AppendBytesThroughputPerProjectRegion masing-masing untuk us, eu, dan region lainnya. Kuota throughput tulis diukur berdasarkan project tempat set data target berada, bukan project klien.

Sebaiknya siapkan pemberitahuan untuk memantau penggunaan dan batas kuota. Selain itu, jika pola traffic Anda mengalami lonjakan dan/atau pertumbuhan organik reguler, akan bermanfaat untuk mempertimbangkan penyediaan kuota yang berlebihan sebesar 25 - 50% untuk menangani permintaan yang tidak terduga.


CreateWriteStream permintaan 10.000 streaming setiap jam, per project per region Anda dapat memanggil CreateWriteStream hingga 10.000 kali per jam per project per region. Pertimbangkan untuk menggunakan aliran data default jika Anda tidak memerlukan semantik tepat satu kali. Kuota ini adalah per jam, tetapi metrik yang ditampilkan di Konsol Google Cloud adalah per menit.
Byte aliran data tertunda 10 TB di multi-region; 1 TB di region Untuk setiap commit yang dipicu, Anda dapat meng-commit hingga 10 TB di multi-region us dan eu, dan 1 TB di region lain. Tidak ada pelaporan kuota mengenai kuota ini.

Batas berikut berlaku untuk permintaan Storage Write API:

Batas Default Notes
Commit batch 10.000 aliran data per tabel Anda dapat meng-commit hingga 10.000 aliran data dalam setiap panggilan BatchCommitWriteStream.
Ukuran permintaan AppendRows 10 MB Ukuran permintaan maksimum adalah 10 MB.

Streaming insert

Kuota dan batas berikut berlaku saat Anda melakukan streaming data ke BigQuery menggunakan legacy streaming API. Untuk mengetahui informasi tentang strategi agar tidak melebihi batas ini, lihat Memecahkan masalah error kuota. Jika melebihi kuota ini, Anda akan mendapatkan error quotaExceeded.

Limit Default Notes
Byte maksimum per detik per project di multi-region us dan eu 1 GB per detik

Project Anda dapat melakukan streaming hingga 1 GB per detik. Kuota ini bersifat kumulatif dalam multi-region tertentu. Dengan kata lain, jumlah byte per detik yang di-streaming ke semua tabel untuk project tertentu dalam multi-region dibatasi hingga 1 GB.

Melebihi batas ini akan menyebabkan error quotaExceeded.

Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan.

Byte maksimum per detik per project di semua lokasi lain 300 MB per detik

Project Anda dapat melakukan streaming hingga 300 MB per detik di semua lokasi kecuali multi-region us dan eu. Kuota ini bersifat kumulatif dalam multi-region tertentu. Dengan kata lain, jumlah byte per detik yang di-streaming ke semua tabel untuk project tertentu dalam suatu region dibatasi hingga 300 MB.

Melebihi batas ini akan menyebabkan error quotaExceeded.

Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan.

Ukuran baris maksimum 10 MB Melebihi nilai ini akan menyebabkan error invalid.
Batas ukuran permintaan HTTP 10 MB

Melebihi nilai ini akan menyebabkan error invalid.

Secara internal, permintaan diterjemahkan dari JSON HTTP ke dalam struktur data internal. Struktur data yang diterjemahkan memiliki batas ukuran yang diterapkan sendiri. Sulit untuk memprediksi ukuran struktur data internal yang dihasilkan, tetapi jika Anda mempertahankan permintaan HTTP ke 10 MB atau kurang, kemungkinan mencapai batas internal akan rendah.

Baris maksimum per permintaan 50.000 baris Jumlah maksimum yang disarankan adalah 500 baris. Batching dapat meningkatkan performa dan throughput pada suatu titik, tetapi memiliki biaya latensi per permintaan yang rendah. Terlalu sedikit baris per permintaan dan adanya overhead di setiap permintaan dapat menyebabkan penyerapan jadi tidak efisien. Terlalu banyak baris per permintaan dan throughput dapat menurunkan performa. Bereksperimenlah dengan data representatif (ukuran skema dan data) untuk menentukan ukuran batch yang ideal untuk data Anda.
Panjang kolom insertId 128 karakter Melebihi nilai ini akan menyebabkan error invalid.

Untuk kuota streaming tambahan, lihat artikel Meminta penambahan kuota.