Kuota dan batas

Dokumen ini mencantumkan kuota dan batas sistem yang berlaku untuk BigQuery. Kuota menentukan jumlah resource bersama yang dapat dihitung dan dapat Anda gunakan, dan ditentukan oleh layanan Google Cloud seperti BigQuery. Batas sistem adalah nilai tetap yang tidak dapat diubah.

Google Cloud menggunakan kuota untuk membantu memastikan keadilan dan mengurangi lonjakan penggunaan dan ketersediaan resource. Kuota membatasi jumlah resource Google Cloud yang dapat digunakan project Google Cloud Anda. Kuota berlaku untuk berbagai jenis resource, termasuk komponen hardware, software, dan jaringan. Misalnya, kuota dapat membatasi jumlah panggilan API ke layanan, jumlah load balancer yang digunakan secara bersamaan oleh project Anda, atau jumlah project yang dapat Anda buat. Kuota melindungi komunitas pengguna Google Cloud dengan mencegah kelebihan beban layanan. Kuota juga membantu Anda mengelola resource Google Cloud Anda sendiri.

Sistem Kuota Cloud melakukan hal berikut:

  • Memantau pemakaian produk dan layanan Google Cloud oleh Anda
  • Membatasi pemakaian resource tersebut
  • Memberikan cara untuk meminta perubahan pada nilai kuota

Pada umumnya, saat Anda mencoba menggunakan resource lebih dari kuota yang diizinkan, sistem akan memblokir akses ke resource, dan tugas yang Anda coba lakukan akan gagal.

Kuota umumnya berlaku di level project Google Cloud. Penggunaan resource di satu project tidak memengaruhi kuota yang tersedia di project lain. Dalam project Google Cloud, kuota dibagikan ke semua aplikasi dan alamat IP.

Ada juga batas sistem pada resource BigQuery. Batas sistem tidak dapat diubah.

Secara default, kuota dan batas BigQuery berlaku per project. Kuota dan batas yang berlaku pada dasar yang berbeda ditunjukkan sebagai berikut; misalnya, jumlah maksimum kolom per tabel, atau jumlah maksimum permintaan API serentak per pengguna. Kebijakan tertentu bervariasi bergantung pada ketersediaan resource, profil pengguna, histori Service Usage, serta faktor lainnya, dan dapat berubah tanpa pemberitahuan.

Pengisian kuota

Kuota harian diisi ulang secara berkala sepanjang hari, yang mencerminkan intent-nya untuk memandu perilaku pembatasan kapasitas. Pemuatan ulang sesekali juga dilakukan untuk mencegah gangguan lama saat kuota habis. Lebih banyak kuota biasanya tersedia dalam hitungan menit daripada pengisian ulang secara global sekali sehari.

Meminta penambahan kuota

Untuk menyesuaikan sebagian besar kuota, gunakan Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Meminta penyesuaian kuota.

Untuk panduan langkah demi langkah melalui proses permintaan penambahan kuota di Konsol Google Cloud, klik Guide me:

Guide me

Membatasi penggunaan kuota

Untuk mempelajari cara membatasi penggunaan resource tertentu dengan membuat penggantian kuota, lihat Membuat penggantian kuota.

Izin yang diperlukan

Untuk melihat dan mengupdate kuota BigQuery di Konsol Google Cloud, Anda memerlukan izin yang sama seperti kuota Google Cloud. Untuk informasi selengkapnya, lihat izin kuota Google Cloud.

Memecahkan masalah

Untuk mengetahui informasi tentang cara memecahkan masalah error yang terkait dengan kuota dan batas, baca artikel Memecahkan masalah error kuota BigQuery.

Tugas

Kuota dan batas berlaku untuk tugas yang dijalankan BigQuery atas nama Anda, baik dijalankan dengan menggunakan Konsol Google Cloud, alat command line bq, maupun secara terprogram menggunakan REST API atau library klien.

Tugas kueri

Kuota berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query dan jenis kueri jobs.insert:

Kuota Default Catatan
Penggunaan kueri per hari Tak terbatas Tidak ada batas jumlah byte yang dapat diproses oleh kueri dalam sebuah project.
Lihat kuota di Konsol Google Cloud
Penggunaan kueri per hari per pengguna Tak terbatas Tidak ada batas jumlah byte yang dapat diproses kueri pengguna setiap hari.
Lihat kuota di Konsol Google Cloud
Byte lintas region kueri gabungan Cloud SQL per hari 1 TB Jika lokasi pemrosesan kueri BigQuery dan lokasi instance Cloud SQL berbeda, maka kueri Anda adalah kueri lintas region. Project Anda dapat berjalan hingga 1 TB dalam kueri lintas region per hari. Lihat Kueri gabungan Cloud SQL.
Lihat kuota di Konsol Google Cloud
Byte per hari yang ditransfer lintas-cloud 1 TB Anda dapat mentransfer hingga 1 TB data per hari dari bucket Amazon S3 atau dari Azure Blob Storage. Untuk mengetahui informasi selengkapnya, lihat Transfer lintas-cloud dari Amazon S3 dan Azure.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk tugas kueri yang dibuat secara otomatis dengan menjalankan kueri interaktif, kueri terjadwal, dan tugas yang dikirim menggunakan metode API jobs.query dan jenis kueri jobs.insert:

Batas Default Catatan
Jumlah maksimum kueri interaktif dalam antrean 1.000 kueri Project Anda dapat mengantrekan hingga 1.000 kueri interaktif. Kueri interaktif tambahan yang melebihi batas ini akan menampilkan error kuota.
Jumlah maksimum kueri batch dalam antrean 20.000 kueri Project Anda dapat mengantrekan hingga 20.000 kueri batch. Kueri batch tambahan yang melebihi batas ini akan menampilkan error kuota.
Jumlah maksimum kueri interaktif serentak terhadap sumber data eksternal Bigtable 16 kueri Project Anda dapat menjalankan hingga enam belas kueri serentak terhadap sumber data eksternal Bigtable.
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh 10 kueri Anda dapat menjalankan hingga 10 kueri serentak dengan fungsi jarak jauh per project.
Jumlah maksimum kueri multi-pernyataan serentak 1.000 kueri multi-pernyataan Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak. Untuk mengetahui kuota dan batas lainnya yang terkait dengan kueri multi-pernyataan, lihat Kueri multi-pernyataan.
Jumlah maksimum kueri legacy SQL serentak yang berisi UDF 6 kueri Project Anda dapat menjalankan hingga 6 kueri legacy SQL secara serentak dengan fungsi yang ditentukan pengguna (UDF). Batas ini mencakup kueri interaktif dan batch. Kueri interaktif yang berisi UDF juga diperhitungkan dalam batas serentak untuk kueri teraktif. Batas ini tidak berlaku untuk kueri GoogleSQL.
Batas ukuran kueri harian Tak terbatas Secara default, tidak ada batas ukuran kueri harian. Namun, Anda dapat menetapkan batas jumlah data yang dapat dibuat kueri oleh pengguna dengan membuat kuota kustom untuk mengontrol penggunaan kueri per hari atau penggunaan kueri per hari per pengguna.
Batas update tabel tujuan harian Lihat Jumlah maksimum operasi tabel per hari. Update pada tabel tujuan dalam tugas kueri akan mengurangi batas jumlah maksimum operasi tabel per hari untuk tabel tujuan. Update tabel tujuan mencakup operasi penambahan dan penimpaan yang dijalankan oleh kueri yang Anda jalankan menggunakan Konsol Google Cloud, menggunakan alat command line bq, atau memanggil metode API jobs.query dan jenis kueri jobs.insert.
Batas waktu eksekusi kueri multi-pernyataan/kueri 6 jam

Kueri atau kueri multi-pernyataan dapat dieksekusi hingga 6 jam, kemudian gagal. Namun, terkadang kueri dicoba lagi. Kueri dapat dicoba hingga tiga kali, dan setiap percobaan dapat berjalan hingga 6 jam. Akibatnya, kueri dapat memiliki total runtime lebih dari 6 jam.

Waktu tunggu tugas CREATE MODEL secara default adalah 24 jam, dengan pengecualian tugas deret waktu, AutoML, dan penyesuaian hyperparameter yang waktu tunggunya 72 jam.

Jumlah maksimum resource yang dirujuk per kueri 1.000 resource Kueri dapat merujuk hingga total 1.000 tabel unik, tampilan unik, fungsi yang ditentukan pengguna (UDF) unik, dan fungsi tabel unik setelah perluasan penuh. Batas ini mencakup hal berikut:
  • Tabel, tampilan, UDF, dan fungsi tabel yang dirujuk langsung oleh kueri.
  • Tabel, tampilan, UDF, dan fungsi tabel yang dirujuk oleh tampilan/UDF/fungsi tabel lain yang dirujuk dalam kueri.
Panjang karakter kueri SQL maksimum 1.024 ribu karakter Panjang kueri SQL dapat mencapai 1.024 ribu karakter. Batas ini mencakup komentar dan karakter spasi kosong. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri dan membagi kueri yang panjang menjadi beberapa kueri dalam sesi.
Panjang maksimum kueri legacy SQL yang belum terselesaikan 256 KB Panjang kueri legacy SQL yang belum terselesaikan dapat mencapai 256 KB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
Panjang maksimum kueri GoogleSQL yang belum terselesaikan 1 MB Panjang kueri GoogleSQL yang belum terselesaikan dapat mencapai 1 MB. Jika kueri lebih panjang, Anda akan menerima error berikut: The query is too large. Agar tidak melebihi batas ini, pertimbangkan untuk mengganti array atau daftar yang besar dengan parameter kueri.
Panjang maksimum kueri GoogleSQL dan lama yang diselesaikan 12 MB Batas ukuran kueri yang sudah diselesaikan mencakup ukuran semua tampilan dan tabel karakter pengganti yang dirujuk oleh kueri.
Jumlah maksimum parameter kueri GoogleSQL 10.000 parameter Kueri GoogleSQL dapat memiliki hingga 10.000 parameter.
Ukuran permintaan maksimum 10 MB Ukuran permintaan maksimal 10 MB, termasuk properti tambahan seperti parameter kueri.
Ukuran respons maksimum 10 GB dikompresi Ukuran bervariasi tergantung pada rasio kompresi data. Ukuran respons yang sebenarnya mungkin lebih besar dari 10 GB secara signifikan. Ukuran respons maksimum menjadi tidak terbatas saat menulis hasil kueri dalam jumlah besar ke tabel tujuan.
Ukuran baris maksimum 100 MB Ukuran baris maksimum merupakan perkiraan, karena batasnya didasarkan pada representasi internal dari data baris. Batas ukuran baris maksimum diterapkan selama tahap tertentu dari eksekusi tugas kueri.
Kolom maksimum dalam tabel, hasil kueri, atau definisi tampilan 10.000 kolom Tabel, hasil kueri, atau definisi tampilan dapat memiliki hingga 10.000 kolom.
Slot serentak maksimum untuk harga sesuai permintaan 2.000 slot per project

20.000 slot per organisasi
Dengan harga sesuai permintaan, project Anda dapat memiliki hingga 2.000 slot serentak. Ada juga batas 20.000 slot serentak di tingkat organisasi. BigQuery mencoba mengalokasikan slot secara adil di antara project dalam organisasi jika total permintaannya lebih tinggi dari 20.000 slot. Slot BigQuery dibagikan di antara semua kueri dalam satu project. BigQuery mungkin melakukan bursting di luar batas ini untuk mempercepat kueri Anda. Untuk memeriksa jumlah slot yang Anda gunakan, lihat Memantau BigQuery menggunakan Cloud Monitoring.
Penggunaan CPU maksimum per data yang dipindai untuk harga sesuai permintaan 256 detik CPU per MiB yang dipindai Dengan harga sesuai permintaan, kueri Anda dapat menggunakan hingga sekitar 256 detik CPU per MiB data yang dipindai. Jika kueri Anda terlalu menggunakan CPU untuk jumlah data yang sedang diproses, kueri akan gagal dengan menampilkan error billingTierLimitExceeded. Untuk mengetahui informasi selengkapnya, lihat billingTierLimitLimited.
Mutasi tabel transaksi multi-pernyataan 100 tabel Sebuah transaksi dapat mengubah data maksimal 100 tabel.
Modifikasi partisi transaksi multi-pernyataan 100.000 modifikasi partisi Satu transaksi dapat melakukan maksimal 100.000 modifikasi partisi.
Ukuran hasil kueri maksimum BigQuery Omni 20 GiB tidak dikompresi Ukuran hasil maksimum adalah 20 GiB byte logis saat membuat kueri data Azure atau AWS. Jika hasil kueri Anda lebih dari 20 GiB, pertimbangkan untuk mengekspor hasilnya ke Amazon S3 atau Blob Storage. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery.
Total ukuran hasil kueri BigQuery Omni per hari 1 TB Ukuran total hasil kueri untuk sebuah project adalah 1 TB per hari. Untuk mengetahui informasi selengkapnya, lihat Batasan BigQuery Omni.
Ukuran baris maksimum BigQuery Omni 10 MiB Ukuran baris maksimum adalah 10 MiB saat membuat kueri data Azure atau AWS. Untuk mengetahui informasi selengkapnya, lihat Batasan Omni BigQuery.

Meskipun kueri terjadwal menggunakan fitur BigQuery Data Transfer Service, kueri terjadwal bukanlah transfer, dan tidak tunduk pada batas tugas pemuatan.

Tugas ekspor

Batas berikut berlaku untuk tugas yang mengekspor data dari BigQuery dengan menggunakan alat command line bq, Konsol Google Cloud, atau metode API jenis ekspor jobs.insert.

Batas Default Catatan
Jumlah maksimum byte yang diekspor per hari 50 TiB Anda dapat mengekspor hingga 50 TiB(Tebibyte) data per hari dari sebuah project tanpa biaya menggunakan gabungan slot bersama. Anda dapat menyiapkan kebijakan pemberitahuan Cloud Monitoring yang memberikan notifikasi tentang jumlah byte yang diekspor. Untuk mengekspor lebih dari 50 TiB(Tebibyte) data per hari, lakukan salah satu langkah berikut:
Jumlah maksimum tugas ekspor per hari 100.000 ekspor Anda dapat menjalankan hingga 100.000 ekspor per hari dalam sebuah project. Untuk menjalankan lebih dari 100.000 ekspor per hari, lakukan salah satu langkah berikut:
Ukuran tabel maksimum yang diekspor ke satu file 1 GB Anda dapat mengekspor hingga 1 GB data tabel ke satu file. Untuk mengekspor lebih dari 1 GB data, gunakan karakter pengganti untuk mengekspor data ke beberapa file. Saat Anda mengekspor data ke beberapa file, ukuran file akan bervariasi. Dalam beberapa kasus, ukuran file output lebih dari 1 GB.
URI karakter pengganti per ekspor 500 URI Ekspor dapat memiliki hingga 500 URI karakter pengganti.

Untuk mengetahui informasi selengkapnya tentang cara melihat penggunaan tugas ekspor saat ini, lihat Melihat penggunaan kuota saat ini.

Tugas pemuatan

Batas berikut berlaku saat Anda memuat data ke BigQuery, menggunakan Koncol Google Cloud, alat command line bq, atau metode API jenis pemuatan jobs.insert.

Batas Default Catatan
Tugas pemuatan per tabel per hari 1.500 tugas Tugas pemuatan, termasuk tugas pemuatan yang gagal, akan diperhitungkan dalam batas jumlah operasi tabel per hari untuk tabel tujuan. Untuk informasi tentang batas jumlah operasi tabel per hari untuk tabel standar dan tabel berpartisi, lihat Tabel.
Tugas pemuatan per hari 100.000 tugas Kuota tugas pemuatan project Anda akan diisi ulang dengan maksimum 100.000 kuota setiap 24 jam. Tugas pemuatan yang gagal akan mengurangi batas ini. Dalam beberapa kasus, Anda dapat menjalankan lebih dari 100.000 tugas pemuatan dalam 24 jam jika kuota hari sebelumnya tidak digunakan sepenuhnya.
Kolom maksimum per tabel 10.000 kolom Satu tabel dapat memiliki hingga 10.000 kolom.
Ukuran maksimum per tugas pemuatan 15 TB Ukuran total untuk semua file input CSV, JSON, Avro, Parquet, dan ORC Anda dapat berukuran hingga 15 TB.
Jumlah maksimum URI sumber dalam konfigurasi tugas 10.000 URI Konfigurasi tugas dapat memiliki hingga 10.000 URI sumber.
Jumlah file maksimum per tugas pemuatan 10.000.000 file Tugas pemuatan dapat memiliki total hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti.
Jumlah maksimum file dalam bucket Cloud Storage sumber Sekitar 60.000.000 file Tugas pemuatan dapat membaca dari bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file.
Batas waktu eksekusi tugas pemuatan 6 jam Tugas pemuatan akan gagal jika dijalankan lebih dari enam jam.
Avro: Ukuran maksimum untuk blok data file 16 MB Batas ukuran untuk blok data file Avro adalah 16 MB.
CSV: Ukuran sel maksimum 100 MB Sel CSV dapat berukuran hingga 100 MB.
CSV: Ukuran baris maksimum 100 MB Ukuran baris CSV maksimal 100 MB.
CSV: Ukuran file maksimum - dikompresi 4 GB Batas ukuran untuk file CSV yang dikompresi adalah 4 GB.
CSV: Ukuran file maksimum - tidak dikompresi 5 TB Batas ukuran untuk file CSV yang tidak dikompresi adalah 5 TB.
JSON yang dibatasi baris baru (ndJSON): Ukuran baris maksimum 100 MB Ukuran baris ndJSON maksimal 100 MB.
ndJSON: Ukuran file maksimum - dikompresi 4 GB Batas ukuran untuk file ndJSON yang dikompresi adalah 4 GB.
ndJSON: Ukuran file maksimum - tidak dikompresi 5 TB Batas ukuran untuk file ndJSON yang tidak dikompresi adalah 5 TB.

Jika Anda secara rutin melebihi batas tugas pemuatan karena update yang sering dilakukan, pertimbangkan untuk melakukan streaming data ke BigQuery.

Untuk informasi tentang cara melihat penggunaan tugas pemuatan saat ini, lihat Melihat penggunaan kuota saat ini.

Pertimbangan kuota tugas pemuatan BigQuery Data Transfer Service

Tugas pemuatan yang dibuat oleh transfer BigQuery Data Transfer Service disertakan dalam kuota BigQuery pada tugas pemuatan. Penting untuk mempertimbangkan jumlah transfer yang Anda aktifkan di setiap project untuk mencegah transfer dan tugas pemuatan lainnya menghasilkan error quotaExceeded.

Anda dapat menggunakan persamaan berikut untuk memperkirakan jumlah tugas pemuatan yang diperlukan oleh transfer:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Dengan keterangan:

  • Number of transfers adalah jumlah konfigurasi transfer yang Anda aktifkan dalam project.
  • Number of tables adalah jumlah tabel yang dibuat oleh setiap jenis transfer tertentu. Jumlah tabel bervariasi menurut jenis transfer:

    • Transfer Campaign Manager membuat sekitar 25 tabel.
    • Transfer Google Ads membuat sekitar 60 tabel.
    • Transfer Google Ad Manager membuat sekitar 40 tabel.
    • Transfer Google Play membuat sekitar 25 tabel.
    • Transfer Search Ads 360 membuat sekitar 50 tabel.
    • Transfer YouTube membuat sekitar 50 tabel.
  • Schedule frequency menjelaskan seberapa sering transfer berjalan. Jadwal proses transfer disediakan untuk setiap jenis transfer:

  • Refresh window adalah jumlah hari yang akan disertakan dalam transfer data. Jika Anda memasukkan 1, tidak ada pengisian ulang harian.

Tugas penyalinan

Batas berikut berlaku untuk tugas BigQuery untuk menyalin tabel, termasuk tugas yang membuat salinan, clone, atau snapshot tabel standar, clone tabel, atau snapshot tabel. Batas ini berlaku untuk tugas yang dibuat menggunakan konsol Google Cloud, alat command line bq, atau metode jobs.insert yang menentukan kolom copy dalam konfigurasi tugas. Tugas penyalinan akan diperhitungkan dalam batas ini, terlepas dari apakah tugas tersebut berhasil atau gagal.

Batas Default Catatan
Tugas penyalinan per tabel tujuan per hari Lihat Operasi tabel per hari.
Tugas penyalinan per hari 100.000 tugas Project Anda dapat menjalankan hingga 100.000 tugas penyalinan per hari.
Tugas penyalinan lintas region per tabel tujuan per hari 100 tugas Project Anda dapat menjalankan hingga 100 tugas penyalinan lintas region untuk tabel tujuan per hari.
Tugas penyalinan lintas region per hari 2.000 tugas Project Anda dapat menjalankan hingga 2.000 tugas penyalinan lintas region per hari.
Jumlah tabel sumber yang akan disalin 1.200 tabel sumber Anda dapat menyalin hingga 1.200 tabel sumber per tugas penyalinan.

Untuk informasi tentang cara melihat penggunaan tugas penyalinan Anda saat ini, lihat Tugas penyalinan - Melihat penggunaan kuota saat ini.

Batas berikut berlaku untuk menyalin set data:

Batas Default Catatan
Jumlah maksimum tabel dalam set data sumber 25.000 tabel Set data sumber dapat memiliki hingga 25.000 tabel.
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang sama 20.000 tabel Project Anda dapat menyalin maksimum 20.000 tabel per proses ke set data tujuan dalam region yang sama. Jika set data sumber berisi lebih dari 20.000 tabel, BigQuery Data Transfer Service akan menjadwalkan operasi berurutan, yang masing-masing menyalin hingga 20.000 tabel, hingga semua tabel disalin. Proses ini dipisahkan oleh interval default 24 jam, yang dapat disesuaikan oleh pengguna hingga minimum 12 jam.
Jumlah maksimum tabel yang dapat disalin per proses ke set data tujuan di region yang berbeda 1.000 tabel Project Anda dapat menyalin maksimum 1.000 tabel per proses ke set data tujuan di region yang berbeda. Jika set data sumber berisi lebih dari 1.000 tabel, BigQuery Data Transfer Service akan menjadwalkan operasi berurutan, yang masing-masing menyalin hingga 1.000 tabel, hingga semua tabel disalin. Proses ini dipisahkan oleh interval default 24 jam, yang dapat disesuaikan oleh pengguna hingga minimum 12 jam.

Reservasi

Kuota berikut berlaku untuk pemesanan:

Kuota Default Catatan
Jumlah total slot untuk region Uni Eropa 5.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di multi-region Uni Eropa menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region AS 10.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di multi-region AS menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region us-east1 4.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region berikut:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
2.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region berikut:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
1.000 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region yang tercantum menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk region BigQuery Omni 100 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di region BigQuery Omni menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud
Jumlah total slot untuk semua region lain 500 slot Jumlah maksimum slot BigQuery yang dapat Anda beli di setiap region lain menggunakan Konsol Google Cloud.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk pemesanan:

Batas Nilai Catatan
Jumlah project administrasi untuk pemesanan slot 5 project per organisasi Jumlah maksimum project dalam organisasi yang dapat berisi pemesanan atau komitmen aktif untuk slot bagi lokasi/region tertentu.
Jumlah maksimum pemesanan edisi standar 10 pemesanan per project Jumlah maksimum pemesanan edisi standar per project administrasi dalam sebuah organisasi untuk lokasi/region tertentu.
Jumlah maksimum pemesanan edisi Enterprise atau Enterprise Plus 200 reservasi per project Jumlah maksimum pemesanan edisi Enterprise atau Enterprise Plus per project administrasi dalam sebuah organisasi untuk lokasi / region tertentu.
Jumlah maksimum slot dalam pemesanan yang dikaitkan dengan penetapan pemesanan dengan jenis tugas CONTINUOUS. 500 slot Jika Anda ingin membuat penetapan pemesanan yang memiliki jenis tugas CONTINUOUS, pemesanan terkait tidak boleh memiliki lebih dari 500 slot.

Set data

Batas berikut berlaku untuk set data BigQuery:

Batas Default Catatan
Jumlah maksimum set data Tak terbatas Tidak ada batas jumlah set data yang dapat dimiliki project.
Jumlah tabel per set data Tak terbatas Saat Anda menggunakan panggilan API, performa enumerasi akan melambat saat Anda mendekati 50.000 tabel dalam set data. Konsol Google Cloud dapat menampilkan hingga 50.000 tabel untuk setiap set data.
Jumlah resource yang diotorisasi dalam daftar kontrol akses set data 2.500 resource Daftar kontrol akses set data dapat memiliki hingga total 2.500 resource yang diotorisasi, termasuk tampilan yang diotorisasi,set data yang diotorisasi, dan fungsi yang diotorisasi. Jika Anda melebihi batas ini karena banyaknya tampilan yang diotorisasi, pertimbangkan untuk mengelompokkan tampilan ke dalam set data yang diotorisasi.
Jumlah operasi update set data per set data per 10 detik 5 operasi Project Anda dapat melakukan hingga lima operasi update set data setiap 10 detik. Batas update set data mencakup semua operasi update metadata yang dilakukan oleh hal berikut:
Panjang maksimum deskripsi set data 16.384 karakter Saat Anda menambahkan deskripsi ke set data, jumlah karakter pada teks dapat berisi maksimal 16.384.

Tabel

Semua tabel

Batas berikut berlaku untuk semua tabel BigQuery.

Batas Default Catatan
Panjang maksimum nama kolom 300 karakter Nama kolom Anda dapat berisi maksimal 300 karakter.
Panjang maksimum deskripsi kolom 1.024 karakter Saat Anda menambahkan deskripsi ke kolom, jumlah karakter pada teks dapat berisi maksimal 16.384.
Kedalaman maksimum data bertingkat 15 tingkat Kolom jenis RECORD dapat berisi jenis RECORD bertingkat, yang juga disebut sebagai data turunan. Batas kedalaman maksimum bertingkat adalah 15 tingkat. Batas ini tidak bergantung pada apakah data berbasis skalar atau array (berulang).
Panjang maksimum deskripsi tabel 16.384 karakter Saat Anda menambahkan deskripsi ke tabel, jumlah karakter pada teks dapat berisi maksimal 16.384.

Tabel standar

Batas berikut berlaku untuk tabel standar (bawaan) BigQuery:

Batas Default Catatan
Modifikasi tabel per hari 1.500 modifikasi

Project Anda dapat membuat hingga 1.500 modifikasi tabel per tabel per hari, baik ketika modifikasi menambahkan data, memperbarui data, maupun memotong tabel. Batas ini tidak dapat diubah dan mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari.

Data streaming tidak diperhitungkan dalam jumlah modifikasi tabel per hari.

Kapasitas maksimum operasi update metadata tabel per tabel 5 operasi per 10 detik Project Anda dapat membuat hingga lima operasi update metadata tabel per 10 detik per tabel. Batas ini berlaku untuk semua operasi update metadata tabel, yang dilakukan oleh hal berikut: Batas ini juga mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan atau yang menggunakan pernyataan DML DELETE, INSERT, MERGE, TRUNCATE TABLE, atau, UPDATE untuk menulis data ke tabel. Perhatikan bahwa meskipun pernyataan DML diperhitungkan terhadap batas ini, pernyataan tersebut tidak akan dikenai jika batas tersebut tercapai. Operasi DML memiliki batas kapasitas khusus.

Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti Exceeded rate limits: too many table update operations for this table. Error ini bersifat sementara; Anda dapat mencoba lagi dengan backoff eksponensial.

Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log. Lihat Memecahkan masalah error kuota untuk mendapatkan panduan tentang cara mendiagnosis dan mengatasi error ini.

Jumlah kolom maksimum per tabel 10.000 kolom Setiap definisi tabel, hasil kueri, atau tampilan dapat memiliki hingga 10.000 kolom.

Tabel eksternal

Batas berikut berlaku untuk tabel BigQuery dengan data yang disimpan di Cloud Storage dalam format Parquet, ORC, Avro, CSV, atau JSON:

Batas Default Catatan
Jumlah maksimum URI sumber per tabel eksternal 10.000 URI Setiap tabel eksternal dapat memiliki hingga 10.000 URI sumber.
Jumlah file maksimum per tabel eksternal 10.000.000 file Tabel eksternal dapat memiliki hingga 10 juta file, termasuk semua file yang cocok dengan semua URI karakter pengganti.
Ukuran maksimum data yang disimpan di Cloud Storage per tabel eksternal 600 TB Tabel eksternal dapat memiliki hingga 600 terabyte di semua file input. Batas ini berlaku untuk ukuran file seperti yang disimpan di Cloud Storage; ukuran ini tidak sama dengan ukuran yang digunakan dalam formula penetapan harga kueri. Untuk tabel yang dipartisi secara eksternal, batas ini akan diterapkan setelah pruning partisi.
Jumlah maksimum file dalam bucket Cloud Storage sumber Sekitar 60.000.000 file Tabel eksternal dapat merujuk bucket Cloud Storage yang berisi hingga sekitar 60.000.000 file. Untuk tabel yang dipartisi secara eksternal, batas ini diterapkan sebelum pruning partisi.

Tabel yang dipartisi

Batas berikut berlaku untuk tabel yang dipartisi BigQuery.

Batas partisi berlaku untuk total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa partisi tujuan.

Satu tugas dapat memengaruhi beberapa partisi. Misalnya, tugas kueri dan tugas pemuatan dapat menulis ke beberapa partisi.

BigQuery menggunakan jumlah partisi yang dipengaruhi oleh tugas saat menentukan jumlah batas yang digunakan oleh tugas tersebut. Streaming insert tidak memengaruhi kuota ini.

Untuk mengetahui informasi tentang strategi agar tetap berada dalam batas tabel berpartisi, lihat Memecahkan masalah error kuota.

Batas Default Catatan
Jumlah partisi per tabel berpartisi 10.000 partisi Setiap tabel berpartisi dapat memiliki hingga 10.000 partisi. Jika Anda melebihi batas ini, pertimbangkan untuk menggunakan pengelompokan sebagai tambahan dari, atau sebagai ganti, partisi.
Jumlah partisi yang diubah oleh satu tugas 4.000 partisi Setiap operasi tugas (kueri atau pemuatan) dapat memengaruhi hingga 4.000 partisi. BigQuery menolak semua tugas kueri atau pemuatan yang mencoba memodifikasi lebih dari 4.000 partisi.
Jumlah modifikasi partisi per tabel berpartisi berdasarkan waktu penyerapan per hari 5.000 modifikasi

Project Anda dapat membuat hingga 5.000 modifikasi partisi per hari, baik modifikasi menambahkan data, mengupdate data, maupun memotong tabel berpartisi berdasarkan waktu penyerapan.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari.

Jumlah modifikasi partisi per tabel berpartisi kolom per hari 30.000 modifikasi

Project Anda dapat membuat hingga 30.000 modifikasi partisi per hari untuk tabel berpartisi kolom.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi partisi per hari.

Data streaming tidak diperhitungkan dalam jumlah modifikasi partisi per hari.

Kapasitas maksimum operasi update metadata tabel per tabel berpartisi 50 modifikasi per 10 detik Project Anda dapat membuat hingga 50 modifikasi per tabel berpartisi setiap 10 detik. Batas ini berlaku untuk semua operasi update metadata tabel berpartisi, yang dilakukan oleh hal berikut: Batas ini juga mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan ke atau menimpa tabel tujuan atau yang menggunakan pernyataan DML DELETE, INSERT, MERGE, TRUNCATE TABLE, atau, UPDATE untuk menulis data ke tabel.

Jika melebihi batas ini, Anda akan mendapatkan pesan error seperti Exceeded rate limits: too many partitioned table update operations for this table. Error ini bersifat sementara; Anda dapat mencoba lagi dengan backoff eksponensial.

Untuk mengidentifikasi operasi yang diperhitungkan terhadap batas ini, Anda dapat Memeriksa log.

Jumlah rentang yang memungkinkan untuk partisi rentang 10.000 rentang Tabel berpartisi rentang dapat memiliki hingga 10.000 kemungkinan rentang. Batas ini berlaku untuk spesifikasi partisi saat Anda membuat tabel. Setelah membuat tabel, batas juga berlaku untuk jumlah partisi sebenarnya.

Clone tabel

Batas berikut berlaku untuk clone tabel BigQuery:

Batas Default Catatan
Jumlah maksimum clone dan snapshot dalam rantai 3 clone atau snapshot tabel Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan.
Jumlah maksimum clone dan snapshot untuk tabel dasar 1.000 clone atau snapshot tabel Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas.

Snapshot tabel

Batas berikut berlaku untuk snapshot tabel BigQuery:

Batas Default Catatan
Jumlah maksimum tugas snapshot tabel serentak 100 tugas Project Anda dapat menjalankan hingga 100 tugas snapshot tabel serentak.
Jumlah maksimum tugas snapshot tabel per hari 50.000 tugas Project Anda dapat menjalankan hingga 50.000 tugas snapshot tabel per hari.
Jumlah maksimum tugas snapshot tabel per tabel per hari 50 tugas Project Anda dapat menjalankan hingga 50 tugas snapshot tabel per tabel per hari.
Jumlah maksimum update metadata per snapshot tabel per 10 detik. 5 update Project Anda dapat mengupdate metadata snapshot tabel hingga lima kali setiap 10 detik.
Jumlah maksimum clone dan snapshot dalam rantai 3 clone atau snapshot tabel Kombinasi clone dan snapshot dibatasi hingga 3. Saat meng-clone atau mengambil snapshot tabel dasar, Anda hanya dapat meng-clone atau mengambil snapshot hasilnya dua kali lagi; mencoba meng-clone atau mengambil snapshot hasil untuk ketiga kalinya akan menghasilkan error. Misalnya, Anda dapat membuat clone A dari tabel dasar, membuat snapshot B dari clone A, dan membuat clone C dari snapshot B. Untuk membuat duplikat tambahan dari clone atau snapshot tingkat ketiga, gunakan operasi penyalinan.
Jumlah maksimum clone dan snapshot untuk tabel dasar 1.000 clone atau snapshot tabel Anda hanya boleh memiliki maksimal 1.000 clone dan snapshot yang sudah ada dari tabel dasar tertentu. Misalnya, jika Anda memiliki 600 snapshot dan 400 clone, Anda akan mencapai batas.

Dilihat

Kuota dan batas berikut berlaku untuk tampilan dan tampilan terwujud.

Tampilan logis

Batas berikut berlaku untuk tampilan standar BigQuery:

Batas Default Catatan
Jumlah maksimum tingkat tampilan bertingkat 16 tingkat BigQuery mendukung hingga 16 tingkat tampilan bertingkat. Anda dapat membuat tampilan hingga batas ini, tetapi kueri dibatasi hingga 15 level. Jika batas terlampaui, BigQuery akan menampilkan error INVALID_INPUT.
Panjang maksimum kueri GoogleSQL yang digunakan untuk menentukan tampilan 256 ribu karakter Satu kueri GoogleSQL yang menentukan tampilan dapat berisi hingga 256 K karakter. Batas ini berlaku untuk satu kueri dan tidak mencakup panjang tampilan yang dirujuk dalam kueri.
Jumlah maksimum tampilan yang diizinkan per set data Lihat Set data.
Panjang maksimum deskripsi tampilan 16.384 karakter Saat Anda menambahkan deskripsi ke tampilan, jumlah karakter pada teks dapat berisi maksimal 16.384.

Tampilan terwujud

Batas berikut berlaku untuk tampilan terwujud BigQuery:

Batas Default Catatan
Referensi tabel dasar (set data yang sama) 20 tampilan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 20 tampilan terwujud dari set data yang sama.
Referensi tabel dasar (project yang sama) 100 tampilan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 100 tampilan terwujud dari project yang sama.
Referensi tabel dasar (seluruh organisasi) 500 tampilan terwujud Setiap tabel dasar dapat dirujuk oleh hingga 500 tampilan terwujud dari seluruh organisasi.
Jumlah maksimum tampilan yang diizinkan per set data Lihat Set data.
Panjang maksimum deskripsi tampilan terwujud 16.384 karakter Saat Anda menambahkan deskripsi ke tampilan yang diwujudkan, jumlah karakter pada teks dapat berisi maksimal 16.384.

Indeks penelusuran

Batas berikut berlaku untuk indeks penelusuran BigQuery:

Batas Default Catatan
Jumlah pernyataan DDL CREATE INDEX per project per region per hari 500 operasi Project Anda dapat menerbitkan hingga 500 operasi DDL CREATE INDEX setiap hari dalam suatu region.
Jumlah pernyataan DDL indeks penelusuran per tabel per hari 20 operasi Project Anda dapat menerbitkan hingga 20 operasi DDL CREATE INDEX atau DROP INDEX per tabel per hari.
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks penelusuran yang tidak berjalan di pemesanan 100 TB di multi-region; 20 TB di semua region lain Anda dapat membuat indeks penelusuran untuk tabel jika ukuran keseluruhan tabel yang memiliki indeks dalam organisasi Anda di bawah batas region: 100 TB untuk US dan EU multi-region, serta 20 TB untuk semua region lain. Jika tugas pengelolaan indeks Anda berjalan di pemesanan Anda sendiri, batas ini tidak berlaku.

Indeks vektor

Batas berikut berlaku untuk indeks vektor BigQuery:

Batas Default Catatan
Jumlah baris minimum tabel dasar 5.000 baris Tabel harus memiliki minimal 5.000 baris untuk membuat indeks vektor.
Jumlah maksimum baris tabel dasar 10.000.000.000 baris untuk jenis indeks IVF

200.000.000 untuk jenis indeks TREE_AH
Tabel dapat memiliki maksimal 10.000.000.000 baris untuk membuat indeks vektor IVF, dan 200.000.000 baris untuk membuat indeks vektor TREE_AH.
Ukuran maksimum array dalam kolom yang diindeks 1.600 elemen Kolom yang akan diindeks dapat berisi maksimal 1.600 elemen dalam array.
Ukuran tabel minimum untuk pengisian indeks vektor 10 MB Jika Anda membuat indeks vektor pada tabel yang berukuran di bawah 10 MB, indeks tidak akan terisi. Demikian pula, jika Anda menghapus data dari tabel yang diindeks vektor sehingga ukuran tabel kurang dari 10 MB, indeks vektor akan dinonaktifkan untuk sementara. Hal ini terjadi terlepas dari apakah Anda menggunakan pemesanan sendiri untuk tugas pengelolaan indeks Anda atau tidak. Setelah ukuran tabel yang diindeks vektor kembali melebihi 10 MB, indeksnya akan otomatis diisi.
Jumlah pernyataan DDL CREATE VECTOR INDEX per project per region per hari 500 operasi Untuk setiap project, Anda dapat menerbitkan hingga 500 operasi CREATE VECTOR INDEX per hari untuk setiap region.
Jumlah pernyataan DDL indeks vektor per tabel per hari 10 operasi Anda dapat menerbitkan hingga 10 operasi CREATE VECTOR INDEX atau DROP VECTOR INDEX per tabel per hari.
Ukuran total maksimum data tabel per organisasi yang diizinkan untuk pembuatan indeks vektor yang tidak berjalan di pemesanan 6 TB Anda dapat membuat indeks vektor untuk tabel jika ukuran total tabel yang memiliki indeks dalam organisasi Anda kurang dari 6 TB. Jika tugas pengelolaan indeks Anda berjalan di pemesanan Anda sendiri, batas ini tidak berlaku.

Rutinitas

Kuota dan batas berikut berlaku untuk rutinitas.

Fungsi yang ditentukan pengguna (UDF)

Batasan berikut berlaku untuk fungsi yang ditentukan pengguna (UDF) sementara dan persisten dalam kueri GoogleSQL.

Batas Default Catatan
Output maksimum per baris 5 MB Jumlah maksimum data yang dapat dihasilkan oleh UDF JavaScript Anda saat memproses satu baris adalah sekitar 5 MB.
Kueri legacy SQL serentak maksimum dengan UDF JavaScript 6 kueri Project Anda dapat memiliki hingga enam kueri legacy SQL serentak yang berisi UDF dalam JavaScript. Batas ini mencakup kueri interaktif dan kueri batch. Batas ini tidak berlaku untuk kueri GoogleSQL.
Resource UDF JavaScript maksimum per kueri 50 resource Tugas kueri dapat memiliki hingga 50 resource UDF JavaScript, seperti blob kode inline atau file eksternal.
Ukuran maksimum blob kode inline 32 KB Blob kode inline dalam UDF dapat berukuran hingga 32 KB.
Ukuran maksimum setiap resource kode eksternal 1 MB Ukuran maksimum setiap resource kode JavaScript adalah satu MB.

Batas berikut berlaku untuk UDF persisten:

Batas Default Catatan
Panjang maksimum nama UDF 256 karakter Panjang nama UDF maksimal 256 karakter.
Jumlah maksimum argumen 256 argumen UDF dapat memiliki hingga 256 argumen.
Panjang maksimum nama argumen 128 karakter Nama argumen UDF dapat berisi hingga 128 karakter.
Kedalaman maksimum rantai referensi UDF 16 referensi Rantai referensi UDF dapat mencapai kedalaman 16 referensi.
Kedalaman maksimum argumen atau output jenis STRUCT 15 tingkat Argumen atau output UDF jenis STRUCT dapat mencapai kedalaman 15 tingkat.
Jumlah maksimum kolom dalam output atau argumen jenis STRUCT per UDF 1.024 kolom UDF dapat memiliki hingga 1.024 kolom dalam output dan argumen jenis STRUCT.
Jumlah maksimum library JavaScript dalam pernyataan CREATE FUNCTION 50 library Pernyataan CREATE FUNCTION dapat memiliki hingga 50 library JavaScript.
Panjang maksimum jalur library JavaScript yang disertakan 5.000 karakter Jalur untuk library JavaScript yang disertakan dalam UDF dapat memiliki hingga 5.000 karakter.
Kecepatan update maksimum per UDF per 10 detik 5 update Project Anda dapat mengupdate UDF hingga lima kali setiap 10 detik.
Jumlah maksimum UDF yang diizinkan per set data Lihat Set data.

Fungsi jarak jauh

Batas berikut berlaku untuk fungsi jarak jauh di BigQuery.

Batas Default Catatan
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh 10 kueri Anda dapat menjalankan hingga sepuluh kueri serentak dengan fungsi jarak jauh per project.
Ukuran input maksimum 5 MB Ukuran total maksimum semua argumen input dari satu baris adalah 5 MB.
Batas ukuran respons HTTP (fungsi Cloud Run generasi ke-1) 10 MB Isi respons HTTP dari fungsi Cloud Run generasi ke-1 maksimal 10 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri.
Batas ukuran respons HTTP (fungsi Cloud Run generasi ke-2 atau Cloud Run) 15 MB Isi respons HTTP dari fungsi Cloud Run generasi ke-2 atau Cloud Run maksimal 15 MB. Melebihi nilai ini akan menyebabkan kegagalan kueri.
Batas waktu pemanggilan HTTP maks (fungsi Cloud Run generasi ke-1) 9 menit Anda dapat menetapkan batas waktu sendiri untuk fungsi Cloud Run generasi ke-1 untuk pemanggilan HTTP individual, tetapi batas waktu maksimumnya adalah 9 menit. Melebihi batas waktu yang ditetapkan untuk fungsi Cloud Run generasi ke-1 dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri.
Batas waktu pemanggilan HTTP (fungsi Cloud Run generasi ke-2 atau Cloud Run) 20 menit Batas waktu untuk setiap pemanggilan HTTP ke Cloud Run generasi ke-2 atau Cloud Run. Melebihi nilai ini dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri.
Jumlah maksimum percobaan percobaan ulang pemanggilan HTTP 20 Jumlah maksimum upaya percobaan ulang untuk setiap pemanggilan HTTP ke fungsi Cloud Run generasi ke-1, generasi ke-2, atau Cloud Run. Melebihi nilai ini dapat menyebabkan kegagalan pemanggilan HTTP dan kegagalan kueri.

Fungsi tabel

Batas berikut berlaku untuk fungsi tabel BigQuery:

Batas Default Catatan
Panjang maksimum nama fungsi tabel 256 karakter Panjang nama fungsi tabel maksimal 256 karakter.
Panjang maksimum nama argumen 128 karakter Panjang nama argumen fungsi tabel dapat mencapai 128 karakter.
Jumlah maksimum argumen 256 argumen Fungsi tabel dapat memiliki hingga 256 argumen.
Kedalaman maksimum rantai referensi fungsi tabel 16 referensi Rantai referensi fungsi tabel dapat memiliki hingga 16 referensi.
Kedalaman maksimum argumen atau output jenis STRUCT 15 tingkat Argumen STRUCT untuk fungsi tabel dapat memiliki kedalaman hingga 15 tingkat. Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki kedalaman hingga 15 tingkat.
Jumlah maksimum kolom dalam argumen atau tabel hasil dengan jenis STRUCT per fungsi tabel 1.024 kolom Argumen STRUCT untuk fungsi tabel dapat memiliki hingga 1.024 kolom. Demikian pula, data STRUCT dalam output fungsi tabel dapat memiliki hingga 1.024 kolom.
Jumlah kolom maksimum dalam tabel hasil 1.024 kolom Tabel yang ditampilkan oleh fungsi tabel dapat memiliki hingga 1.024 kolom.
Panjang maksimum nama kolom tabel hasil 128 karakter Panjang nama kolom dalam tabel yang ditampilkan dapat berisi hingga 128 karakter.
Jumlah maksimum update per fungsi tabel per 10 detik 5 update Project Anda dapat mengupdate fungsi tabel hingga lima kali setiap 10 detik.

Prosedur tersimpan untuk Apache Spark

Batas berikut berlaku untuk prosedur yang disimpan di BigQuery untuk Apache Spark:

Batas Default Catatan
Jumlah maksimum kueri prosedur tersimpan serentak 50 Anda dapat menjalankan hingga 50 kueri prosedur tersimpan serentak untuk setiap project.
Jumlah maksimum CPU yang sedang digunakan 12.000 Anda dapat menggunakan hingga 12.000 CPU untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini.

Anda dapat menggunakan hingga 2.400 CPU untuk setiap lokasi untuk setiap project, kecuali di lokasi berikut:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

Di lokasi ini, Anda dapat menggunakan hingga 500 CPU per lokasi untuk setiap project.

Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada dalam area geografis yang sama, kueri Anda mungkin menggunakan kuota CPU serentak yang sama.

Ukuran total maksimum persistent disk standar yang digunakan 204,8 TB

Anda dapat menggunakan persistent disk standar hingga 204,8 TB per lokasi untuk setiap project. Kueri yang telah diproses tidak akan memakai batas ini.

Jika Anda menjalankan kueri serentak di lokasi multi-region dan satu lokasi region yang berada di area geografis yang sama, kueri Anda mungkin akan menggunakan kuota persistent disk standar yang sama.

Notebook

Semua kuota dan batas Dataform serta kuota dan batas Colab Enterprise berlaku untuk notebook di BigQuery. Batasan berikut juga berlaku:

Batas Default Catatan
Ukuran maksimum notebook 20 MB

Ukuran notebook adalah total konten, metadata, dan overhead encoding-nya.

Anda dapat melihat ukuran konten notebook dengan meluaskan header notebook, mengklik View, lalu mengklik Notebook info.

Jumlah maksimum permintaan per detik ke Dataform 100 Notebook dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah notebook akan mengurangi kuota ini. Kuota ini dibagikan ke kueri tersimpan. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota.

Kueri tersimpan

Semua kuota dan batas Dataform berlaku untuk kueri tersimpan. Batas berikut juga berlaku:

Batas Default Catatan
Ukuran maksimum kueri tersimpan 10 MB
Jumlah maksimum permintaan per detik ke Dataform 100 Kueri tersimpan dibuat dan dikelola melalui Dataform. Setiap tindakan yang membuat atau mengubah kueri tersimpan akan mengurangi kuota ini. Kuota ini dibagikan ke notebook. Misalnya, jika Anda membuat 50 perubahan pada notebook dan 50 perubahan pada kueri tersimpan dalam 1 detik, berarti Anda akan mencapai kuota.

Bahasa pengolahan data

Batas berikut berlaku untuk pernyataan bahasa pengolahan data (DML) BigQuery:

Batas Default Catatan
Pernyataan DML per hari Tak terbatas Jumlah pernyataan DML yang dapat dijalankan oleh proyek Anda per hari tidak terbatas.

Pernyataan DML tidak diperhitungkan dalam jumlah modifikasi tabel per hari atau jumlah modifikasi tabel berpartisi per hari untuk tabel berpartisi.

Pernyataan DML memiliki batasan berikut yang harus diperhatikan.
Pernyataan DML INSERT serentak per tabel per hari 1.500 laporan mutasi 1.500 pernyataan INSERT pertama langsung dijalankan setelah dikirim. Setelah batas ini tercapai, konkurensi pernyataan INSERT yang menulis ke tabel dibatasi hingga 10. Pernyataan INSERT tambahan ditambahkan ke antrean PENDING. Hingga 100 pernyataan INSERT dapat dimasukkan ke dalam antrean untuk tabel pada waktu tertentu. Saat pernyataan INSERT selesai, pernyataan INSERT berikutnya akan dihapus dari antrean dan dijalankan.

Jika Anda harus menjalankan pernyataan DML INSERT lebih sering, pertimbangkan untuk melakukan streaming data ke tabel menggunakan Storage Write API.
Pernyataan DML bermutasi serentak per tabel 2 pernyataan BigQuery menjalankan hingga dua pernyataan DML bermutasi serentak (UPDATE, DELETE, dan MERGE) untuk setiap tabel. Pernyataan DML bermutasi tambahan untuk tabel sedang dimasukkan ke dalam antrean.
Pernyataan DML bermutasi yang diantrekan per tabel 20 pernyataan Sebuah tabel dapat memiliki hingga 20 pernyataan DML yang bermutasi dalam antrean yang menunggu untuk dijalankan. Jika Anda mengirimkan pernyataan DML bermutasi tambahan untuk tabel, pernyataan tersebut akan gagal.
Waktu maksimum dalam antrean untuk pernyataan DML 6 jam Pernyataan DML prioritas interaktif dapat menunggu dalam antrean hingga enam jam. Jika tidak berjalan setelah enam jam, pernyataan tersebut akan gagal.
Kecepatan maksimum pernyataan DML untuk setiap tabel 25 pernyataan setiap 10 detik Project Anda dapat menjalankan hingga 25 pernyataan DML setiap 10 detik untuk setiap tabel. Baik pernyataan INSERT maupun pernyataan DML yang bermutasi berkontribusi terhadap batas ini.

Untuk mengetahui informasi selengkapnya tentang mengubah pernyataan DML, lihat konkurensi DML INSERT dan konkurensi DML UPDATE, DELETE, MERGE.

Kueri multi-pernyataan

Batas berikut berlaku untuk kueri multi-pernyataan di BigQuery.

Batas Default Catatan
Jumlah maksimum kueri multi-pernyataan serentak 1.000 kueri multi-pernyataan Project Anda dapat menjalankan hingga 1.000 kueri multi-pernyataan serentak.
Batas waktu kumulatif 24 jam Batas waktu kumulatif untuk kueri multi-pernyataan adalah 24 jam.
Batas waktu pernyataan 6 jam Batas waktu untuk setiap pernyataan dalam kueri multi-pernyataan adalah 6 jam.

CTE berulang dalam kueri

Batas berikut berlaku untuk ekspresi tabel umum (CTE) berulang di BigQuery.

Batas Default Catatan
Batas iterasi 500 iterasi CTE berulang dapat menjalankan jumlah iterasi ini. Jika batas ini terlampaui, akan muncul error. Untuk mengatasi batas iterasi, lihat Memecahkan masalah error batas iterasi.

Keamanan tingkat baris

Batas berikut berlaku untuk kebijakan akses tingkat baris BigQuery:

Batas Default Catatan
Jumlah maksimum kebijakan akses baris per tabel 400 kebijakan Satu tabel dapat memiliki hingga 400 kebijakan akses baris.
Jumlah maksimum kebijakan akses baris per kueri 6.000 kebijakan Kueri dapat mengakses hingga total 6.000 kebijakan akses baris.
Jumlah maksimum pernyataan DDL CREATE/DROP per kebijakan per 10 detik 5 pernyataan Project Anda dapat membuat hingga lima pernyataan CREATE atau DROP per resource kebijakan akses baris setiap 10 detik.
Pernyataan DROP ALL ROW ACCESS POLICIES per tabel per 10 detik 5 pernyataan Project Anda dapat membuat hingga lima pernyataan DROP ALL ROW ACCESS POLICIES per tabel setiap 10 detik.

Kebijakan data

Batas berikut berlaku untuk penyamaran data dinamis tingkat kolom:

Batas Default Catatan
Jumlah maksimum kebijakan data per tag kebijakan. 8 kebijakan per tag kebijakan Hingga delapan kebijakan data per tag kebijakan. Salah satu kebijakan ini dapat digunakan untuk kontrol akses tingkat kolom. Ekspresi penyamaran duplikat tidak didukung.

BigQuery ML

Batas berikut berlaku untuk BigQuery ML.

Tugas kueri

Semua kuota dan batas tugas kueri berlaku untuk tugas kueri GoogleSQL yang menggunakan pernyataan dan fungsi BigQuery ML.

Laporan CREATE MODEL

Batas berikut berlaku untuk tugas CREATE MODEL:

Batas Default Catatan
Kueri pernyataan CREATE MODEL per 48 jam untuk setiap project 20.000 kueri pernyataan Beberapa model dilatih dengan memanfaatkan layanan Vertex AI, yang memiliki pengelolaan kuota dan resource sendiri.
Batas waktu eksekusi 24 jam atau 72 jam Waktu tunggu tugas CREATE MODEL secara default adalah 24 jam, dengan pengecualian tugas deret waktu, AutoML, dan penyesuaian hyperparameter yang waktu tunggunya 72 jam.

Fungsi layanan Vertex AI dan Cloud AI

Batas berikut berlaku untuk fungsi yang menggunakan model bahasa besar (LLM) Vertex AI dan layanan Cloud AI:

Fungsi Permintaan per menit Baris per tugas Jumlah tugas yang berjalan serentak
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.5-pro 60 21.600 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.5-flash 200 72.000 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro-vision di wilayah us-central1 100 20.000 1
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro-vision di wilayah selain us-central1 10 3.600 1
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro di wilayah us-central1 300 108.000 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model gemini-1.0-pro di wilayah selain us-central1 10 3.600 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model Claude Anthropic 30 10.800 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model text-bison 1.600 576.000 5
ML.GENERATE_TEXT saat menggunakan model jarak jauh melalui model text-bison-32 300 108.000 5
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui model Vertex AI multimodalembedding di satu region Eropa yang didukung 120 14.000 5
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui model Vertex AI multimodalembedding di region selain region tunggal Eropa yang didukung 600 25.000 5
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui model text-embedding dan text-multilingual-embedding Vertex AI di region us-central1 1.500 2.700.000 1
ML.GENERATE_EMBEDDING saat digunakan dengan model jarak jauh melalui model text-embedding dan text-multilingual-embedding Vertex AI di region selain us-central1 100 324.000 1
ML.PROCESS_DOCUMENT dengan dokumen rata-rata satu halaman 600 150.000 5
ML.PROCESS_DOCUMENT dengan dokumen rata-rata sepuluh halaman 600 100.000 5
ML.PROCESS_DOCUMENT dengan dokumen rata-rata lima puluh halaman 600 15.000 5
ML.TRANSCRIBE 200 10.000 5
ML.ANNOTATE_IMAGE 1.800 648.000 5
ML.TRANSLATE 6.000 2.160.000 5
ML.UNDERSTAND_TEXT 600 21.600 5

Untuk mengetahui informasi selengkapnya tentang kuota untuk LLM Vertex AI dan API layanan Cloud AI, lihat dokumen berikut:

Kuota baris per tugas mewakili jumlah baris teoretis tertinggi yang dapat ditangani sistem dalam jangka waktu 6 jam. Jumlah baris yang sebenarnya diproses bergantung pada banyak faktor lainnya, termasuk ukuran input dan kondisi jaringan. Misalnya, ML.TRANSCRIBE dapat memproses lebih banyak audio singkat daripada audio panjang.

Untuk meminta lebih banyak kuota untuk fungsi BigQuery ML, sesuaikan kuota untuk layanan LLM Vertex AI atau Cloud AI terkait terlebih dahulu, lalu kirim email ke bqml-feedback@google.com dan sertakan informasi tentang kuota layanan LLM atau Cloud AI yang disesuaikan. Untuk informasi selengkapnya tentang cara meminta lebih banyak kuota untuk layanan ini, lihat Meminta kuota yang lebih tinggi.

Definisi kuota

Daftar berikut menjelaskan kuota yang berlaku untuk fungsi layanan Vertex AI dan Cloud AI:

  • Fungsi yang memanggil model dasar Vertex AI menggunakan satu kuota Vertex AI, yaitu kueri per menit (QPM). Dalam konteks ini, kueri adalah panggilan permintaan dari fungsi ke API model Vertex AI. Kuota QPM berlaku untuk model dasar dan semua versi, ID, dan versi yang disesuaikan dari model tersebut. Untuk mengetahui informasi selengkapnya tentang kuota model dasar Vertex AI, lihat Kuota per region dan model.
  • Fungsi yang memanggil layanan Cloud AI menggunakan kuota permintaan layanan target. Periksa referensi kuota layanan Cloud AI yang diberikan untuk mengetahui detailnya.
  • BigQuery ML menggunakan tiga kuota:

    • Permintaan per menit. Kuota ini adalah batas jumlah panggilan permintaan per menit yang dapat dilakukan fungsi ke API model Vertex AI atau layanan Cloud AI. Batas ini berlaku untuk setiap project.

      Untuk fungsi yang memanggil model dasar Vertex AI, jumlah panggilan permintaan per menit bervariasi bergantung pada endpoint, versi, dan region model Vertex AI. Kuota ini secara konseptual sama dengan kuota QPM yang digunakan oleh Vertex AI, tetapi mungkin memiliki nilai yang lebih kecil daripada kuota QPM untuk model yang sesuai.

    • Baris per tugas. Kuota ini adalah batas jumlah baris yang diizinkan untuk setiap tugas kueri.

    • Jumlah tugas yang berjalan serentak. Kuota ini adalah batas per project untuk jumlah kueri SQL yang dapat berjalan secara bersamaan untuk fungsi tertentu.

Contoh berikut menunjukkan cara menafsirkan batasan kuota dalam situasi umum:

  • Saya memiliki kuota 1.000 QPM di Vertex AI, sehingga kueri dengan 100.000 baris akan memerlukan waktu sekitar 100 menit. Mengapa tugas berjalan lebih lama?

    Runtime tugas dapat bervariasi bahkan untuk data input yang sama. Di Vertex AI, panggilan prosedur jarak jauh (RPC) memiliki prioritas yang berbeda untuk menghindari pemborosan kuota. Jika kuota tidak cukup, RPC dengan prioritas yang lebih rendah akan menunggu dan mungkin gagal jika waktu pemrosesannya terlalu lama.

  • Bagaimana cara menafsirkan baris per kuota tugas?

    Di BigQuery, kueri dapat dieksekusi hingga enam jam. Baris maksimum yang didukung adalah fungsi dari linimasa ini dan kuota QPM Vertex AI Anda, untuk memastikan bahwa BigQuery dapat menyelesaikan pemrosesan kueri dalam enam jam. Karena kueri biasanya tidak dapat menggunakan seluruh kuota, jumlah ini lebih rendah daripada kuota QPM Anda yang dikalikan dengan 360.

  • Apa yang terjadi jika saya menjalankan tugas inferensi batch pada tabel dengan lebih banyak baris daripada kuota baris per tugas, misalnya 10.000.000 baris?

    BigQuery hanya memproses jumlah baris yang ditentukan oleh kuota baris per tugas. Anda hanya akan ditagih untuk panggilan API yang berhasil untuk jumlah baris tersebut, bukan 10.000.000 baris penuh dalam tabel Anda. Untuk baris lainnya, BigQuery merespons permintaan dengan error A retryable error occurred: the maximum size quota per query has reached, yang ditampilkan di kolom status pada hasil. Anda dapat menggunakan kumpulan skrip SQL ini atau paket Dataform ini untuk melakukan iterasi melalui panggilan inferensi hingga semua baris berhasil diproses.

  • Saya memiliki lebih banyak baris yang harus diproses daripada kuota baris per tugas. Apakah membagi baris saya di beberapa kueri dan menjalankannya secara bersamaan akan membantu?

    Tidak, karena kueri ini menggunakan kuota permintaan per menit BigQuery ML dan kuota QPM Vertex AI yang sama. Jika ada beberapa kueri yang semuanya tetap berada dalam kuota baris per tugas dan jumlah kuota tugas yang berjalan serentak, pemrosesan kumulatif akan menghabiskan kuota permintaan per menit.

BI Engine

Batas berikut berlaku untuk BigQuery BI Engine.

Batas Default Catatan
Ukuran pemesanan maksimum per project per lokasi (Antarmuka SQL) 250 GiB Berlaku saat menggunakan BI Engine dengan BigQuery. Berlaku dalam semua kasus kecuali Looker Studio tanpa integrasi native.

Anda dapat meminta peningkatan kapasitas pemesanan maksimum untuk project Anda. Peningkatan pemesanan tersedia di sebagian besar region, dan mungkin memerlukan waktu pemrosesan antara 3 hari hingga satu minggu.
Ukuran pemesanan maksimum per project per lokasi (Looker Studio) 100 GB Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Batas ini tidak memengaruhi ukuran tabel yang Anda kueri karena BI Engine hanya memuat kolom yang digunakan dalam kueri Anda dalam memori, bukan seluruh tabel.
Ukuran model data maksimum per tabel (Looker Studio) 10 GB Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. Jika Anda memiliki pemesanan sebesar 100 GB per project per lokasi, BI Engine membatasi pemesanan per tabel menjadi 10 GB. Sisa pemesanan yang tersedia akan digunakan untuk tabel lain dalam project.
Partisi maksimum per tabel (Looker Studio) 500 partisi Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga maksimum 500 partisi per tabel.
Baris maksimum per kueri (Looker Studio) 150 juta Berlaku saat menggunakan BI Engine dengan Looker Studio tanpa integrasi native. BI Engine untuk Looker Studio mendukung hingga 150 juta baris data yang dikueri, bergantung pada kompleksitas kueri.

Analytics Hub

Batas berikut berlaku untuk Analytics Hub:

Batas Default Catatan
Jumlah maksimum pertukaran data per project 500 pertukaran Anda dapat membuat hingga 500 pertukaran data dalam satu project.
Jumlah maksimum listingan per pertukaran data 1.000 listingan Anda dapat membuat hingga 1.000 listingan di pertukaran data.
Jumlah maksimum set data tertaut per set data bersama 1.000 set data tertaut Jika digabungkan, semua pelanggan Analytics Hub dapat memiliki maksimum 1.000 set data tertaut per set data bersama.

Kuota dan batas API

Kuota dan batas ini berlaku untuk permintaan BigQuery API.

BigQuery API

Kuota berikut berlaku untuk permintaan BigQuery API (inti):

Kuota Default Catatan
Permintaan per hari Tak terbatas Project Anda dapat membuat permintaan BigQuery API dalam jumlah yang tidak terbatas per hari.
Lihat kuota di Konsol Google Cloud
Maksimum tabledata.list byte per menit 7,5 GB di multi-region; 3,7 GB di semua region lainnya Project Anda dapat menampilkan maksimum 7,5 GB data baris tabel per menit melalui tabledata.list di multi-region us dan eu, serta 3,7 GB data baris tabel per menit di semua region lain. Kuota ini berlaku untuk project yang berisi tabel yang sedang dibaca. API lain termasuk jobs.getQueryResults dan mengambil hasil dari jobs.query dan jobs.insert juga dapat memakai kuota ini.
Lihat kuota di Konsol Google Cloud

BigQuery Storage Read API dapat mempertahankan throughput yang jauh lebih tinggi daripada tabledata.list. Jika Anda memerlukan throughput lebih dari yang diizinkan berdasarkan kuota ini, pertimbangkan untuk menggunakan BigQuery Storage Read API.

Batas berikut berlaku untuk permintaan BigQuery API (inti):

Batas Default Catatan
Jumlah maksimum permintaan API per detik per pengguna per metode 100 permintaan Pengguna dapat membuat hingga 100 permintaan API per detik untuk satu metode API. Jika pengguna membuat lebih dari 100 permintaan per detik ke suatu metode, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert.
Jumlah maksimum permintaan API serentak per pengguna 300 permintaan Jika pengguna membuat lebih dari 300 permintaan serentak, throttling dapat terjadi. Batas ini tidak berlaku untuk streaming insert.
Ukuran header permintaan maksimum 16 KiB Permintaan BigQuery API Anda dapat mencapai 16 KiB, termasuk URL permintaan dan semua header. Batas ini tidak berlaku untuk isi permintaan, seperti dalam permintaan POST.
Maksimum jobs.get permintaan per detik 1.000 permintaan Project Anda dapat membuat hingga 1.000 permintaan jobs.get per detik.
Ukuran respons maksimum jobs.query 20 MB Secara default, tidak ada jumlah baris maksimum untuk jumlah baris data yang ditampilkan oleh jobs.query per halaman hasil. Namun, Anda dibatasi untuk ukuran respons maksimum sebesar 20 MB. Anda dapat mengubah jumlah baris yang akan ditampilkan dengan menggunakan parameter maxResults.
Ukuran baris jobs.getQueryResults maksimum 20 MB Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas ini diterapkan selama transcoding.
Maksimum projects.list permintaan per detik 2 permintaan Project Anda dapat membuat hingga dua permintaan projects.list per detik.
Jumlah maksimum tabledata.list permintaan per detik 1.000 permintaan Project Anda dapat membuat hingga 1.000 permintaan tabledata.list per detik.
Baris maksimum per respons tabledata.list 100.000 baris Panggilan tabledata.list dapat menampilkan hingga 100.000 baris tabel. Untuk informasi selengkapnya, lihat Melakukan paging melalui hasil menggunakan API.
Ukuran baris tabledata.list maksimum 100 MB Ukuran baris maksimum merupakan perkiraan karena batasnya didasarkan pada representasi internal dari data baris. Batas ini diterapkan selama transcoding.
Maksimum tables.insert permintaan per detik 10 permintaan Project Anda dapat membuat hingga 10 permintaan tables.insert per detik. Metode tables.insert akan membuat tabel baru yang kosong dalam set data. Batas ini mencakup pernyataan SQL yang membuat tabel, seperti CREATE TABLE dan kueri yang menulis hasil ke tabel tujuan.

BigQuery Connection API

Kuota berikut berlaku untuk permintaan BigQuery Connection API:

Kuota Default Catatan
Permintaan baca per menit 1.000 permintaan per menit Project Anda dapat membuat hingga 1.000 permintaan per menit ke metode BigQuery Connection API yang membaca data koneksi.
Lihat kuota di Konsol Google Cloud
Permintaan tulis per menit 100 permintaan per menit Project Anda dapat membuat hingga 100 permintaan per menit ke metode BigQuery Connection API yang membuat atau mengupdate koneksi.
Lihat kuota di Konsol Google Cloud
Koneksi BigQuery Omni yang dibuat per menit 10 koneksi dibuat per menit Project Anda dapat membuat total hingga 10 koneksi BigQuery Omni di AWS dan Azure per menit.
Penggunaan koneksi BigQuery Omni 100 penggunaan koneksi per menit Project Anda dapat menggunakan koneksi BigQuery Omni hingga 100 kali per menit. Hal ini berlaku untuk operasi yang menggunakan koneksi Anda untuk mengakses akun AWS, seperti membuat kueri tabel.

BigQuery Migration API

Batas berikut berlaku untuk BigQuery Migration API:

Batas Default Catatan
Ukuran file individual untuk terjemahan SQL batch 10 MB Ukuran maksimal setiap file sumber dan metadata adalah 10 MB. Batas ini tidak berlaku untuk file ZIP metadata yang dihasilkan oleh alat ekstraksi command line dwh-migration-dumper.
Ukuran total file sumber untuk terjemahan SQL batch 1 GB Ukuran total semua file input yang diupload ke Cloud Storage dapat berukuran hingga 1 GB. Ini mencakup semua file sumber, dan semua file metadata jika Anda memilih untuk menyertakannya.
Ukuran string input untuk terjemahan SQL interaktif 1 MB String yang Anda masukkan untuk terjemahan SQL interaktif tidak boleh melebihi 1 MB. Saat menjalankan terjemahan interaktif menggunakan Translation API, batas ini berlaku untuk ukuran total semua input string.
Ukuran file konfigurasi maksimum untuk terjemahan SQL interaktif 50 MB Setiap file metadata (terkompresi) dan file konfigurasi YAML di Cloud Storage tidak boleh melebihi 50 MB. Jika ukuran file melebihi 50 MB, penerjemah interaktif akan melewati file konfigurasi tersebut selama penerjemahan dan menghasilkan pesan error. Salah satu metode untuk mengurangi ukuran file metadata adalah menggunakan flag —database atau –schema untuk memfilter database saat Anda membuat metadata.

Kuota berikut berlaku untuk BigQuery Migration API. Nilai default berikut berlaku dalam sebagian besar kasus. Setelan default untuk project Anda mungkin berbeda:

Kuota Default Catatan

Permintaan Daftar Layanan EDWMigration per menit

Permintaan Daftar Layanan EDWMigration per menit per pengguna

12.000 permintaan

2.500 permintaan

Project Anda dapat membuat hingga 12.000 permintaan Daftar Migration API per menit.

Setiap pengguna dapat membuat hingga 2.500 permintaan Daftar Migration API per menit.

Lihat kuota di Konsol Google Cloud

Permintaan Get Layanan EDWMigration per menit

Permintaan Get Layanan EDWMigration per menit per pengguna

25.000 permintaan

2.500 permintaan

Project Anda dapat membuat hingga 25.000 permintaan Get Migration API per menit.

Setiap pengguna dapat membuat hingga 2.500 permintaan Get Migration API per menit.

Lihat kuota di Konsol Google Cloud

Permintaan Lain Layanan EDWMigration per menit

Permintaan Lain Layanan EDWMigration per menit per pengguna

25 permintaan

5 permintaan

Project Anda dapat membuat hingga 25 permintaan Migration API lainnya per menit.

Setiap pengguna dapat membuat hingga 5 permintaan Migration API lain per menit.

Lihat kuota di Konsol Google Cloud

Permintaan terjemahan SQL interaktif per menit

Permintaan terjemahan SQL interaktif per menit per pengguna

200 permintaan

50 permintaan

Project Anda dapat membuat hingga 200 permintaan layanan terjemahan SQL per menit.

Setiap pengguna dapat membuat hingga 50 permintaan layanan terjemahan SQL lain per menit.

Lihat kuota di Konsol Google Cloud

BigQuery Reservation API

Kuota berikut berlaku untuk permintaan BigQuery Reservation API:

Kuota Default Catatan
Permintaan per menit per region 100 permintaan Project Anda dapat melakukan total hingga 100 panggilan ke metode BigQuery Reservation API per menit per region.
Lihat kuota di Konsol Google Cloud
Jumlah SearchAllAssignments panggilan per menit per region 100 permintaan Project Anda dapat melakukan hingga 100 panggilan ke metode SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud
Permintaan sebesar SearchAllAssignments per menit per region per pengguna 10 permintaan Setiap pengguna dapat melakukan hingga 10 panggilan ke metode SearchAllAssignments per menit per region.
Lihat kuota di Konsol Google Cloud
(Di hasil penelusuran Konsol Google Cloud, telusuri per pengguna.)

BigQuery Data Policy API

Batas berikut berlaku untuk Data Policy API (pratinjau):

Batas Default Catatan
Jumlah maksimum panggilan dataPolicies.list. 400 permintaan per menit per project

600 permintaan per menit per organisasi
Jumlah maksimum panggilan dataPolicies.testIamPermissions. 400 permintaan per menit per project

600 permintaan per menit per organisasi
Jumlah maksimum permintaan baca. 1.200 permintaan per menit per project

1.800 permintaan per menit per organisasi
Ini termasuk panggilan ke dataPolicies.get dan dataPolicies.getIamPolicy.
Jumlah maksimum permintaan tulis. 600 permintaan per menit per project

900 permintaan per menit per organisasi

Panggilan ini mencakup:

IAM API

Kuota berikut berlaku saat Anda menggunakan fitur Identity and Access Management di BigQuery untuk mengambil dan menetapkan kebijakan IAM, serta untuk menguji izin IAM. Pernyataan bahasa kontrol data (DCL) dihitung dalam kuota SetIAMPolicy.

Kuota Default Catatan
IamPolicy permintaan per menit per pengguna 1.500 permintaan per menit per pengguna Setiap pengguna dapat membuat hingga 1.500 permintaan per menit per project.
Lihat kuota di Konsol Google Cloud
IamPolicy permintaan per menit per project 3.000 permintaan per menit per project Project Anda dapat membuat hingga 3.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Permintaan SetIAMPolicy satu region per menit per project 1.000 permintaan per menit per project Project satu region Anda dapat membuat hingga 1.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Multi-region SetIAMPolicy permintaan per menit per project 2.000 permintaan per menit per project Project multi-region Anda dapat membuat hingga 2.000 permintaan per menit.
Lihat kuota di Konsol Google Cloud
Omni-region SetIAMPolicy permintaan per menit per project 200 permintaan per menit per project Project Omni-region Anda dapat membuat hingga 200 permintaan per menit.
Lihat kuota di Konsol Google Cloud

Storage Read API

Kuota berikut berlaku untuk permintaan BigQuery Storage Read API:

Kuota Default Catatan
Membaca permintaan bidang data per menit per pengguna 25.000 permintaan Setiap pengguna dapat melakukan hingga 25.000 panggilan ReadRows per menit per project.
Lihat kuota di Konsol Google Cloud
Permintaan bidang kontrol pembacaan per menit per pengguna 5.000 permintaan Setiap pengguna dapat melakukan hingga 5.000 panggilan operasi metadata Storage Read API per menit per project. Panggilan metadata menyertakan metode CreateReadSession dan SplitReadStream.
Lihat kuota di Konsol Google Cloud

Batas berikut berlaku untuk permintaan BigQuery Storage Read API:

Batas Default Catatan
Panjang maksimum baris/filter 1 MB Saat menggunakan panggilan CreateReadSession Storage Read API, Anda dibatasi dengan panjang maksimum 1 MB untuk setiap baris atau filter.
Ukuran maksimum data berseri 128 MB Saat Anda menggunakan panggilan ReadRows Storage Read API, representasi berseri data dalam setiap pesan ReadRowsResponse tidak boleh lebih dari 128 MB.
Sambungan serentak maksimum 2.000 di multi-region; 400 di region Anda dapat membuka maksimum 2.000 koneksi ReadRows serentak per project di multi-region us dan eu, serta 400 koneksi ReadRows serentak di region lain singkat ini. Dalam beberapa kasus, Anda mungkin dibatasi untuk lebih sedikit koneksi serentak dari batas ini.
Penggunaan memori maksimum per streaming 1,5 GB Memori per streaming maksimum bersifat perkiraan karena batasnya didasarkan pada representasi internal data baris. Streaming yang menggunakan lebih dari 1,5 GB memori untuk satu baris dapat gagal. Untuk mengetahui informasi selengkapnya, lihat Memecahkan masalah resource yang terlampaui.

Storage Write API

Kuota berikut berlaku untuk permintaan Storage Write API. Kuota berikut dapat diterapkan di tingkat folder. Kuota ini kemudian digabungkan dan dibagikan ke semua project turunan. Untuk mengaktifkan konfigurasi ini, hubungi Cloud Customer Care.

Jika Anda berencana untuk meminta batas kuota yang lebih tinggi, sertakan pesan error kuota dalam permintaan Anda untuk mempercepat pemrosesan.

Kuota Default Catatan
Koneksi serentak 1.000 di satu region; 10.000 di multi-region

Kuota koneksi serentak didasarkan pada project klien yang memulai permintaan Storage Write API, bukan project yang berisi resource set data BigQuery. Project yang dimulai lebih awal adalah project yang terkait dengan kunci API atau akun layanan.

Project Anda dapat beroperasi pada 1.000 koneksi serentak di satu region, atau 10.000 koneksi serentak di multi-region US dan EU.

Saat Anda menggunakan aliran data default di Java atau Go, sebaiknya gunakan multiplexing Storage Write API untuk menulis ke beberapa tabel tujuan dengan koneksi bersama untuk mengurangi jumlah koneksi keseluruhan yang diperlukan. Jika menggunakan konektor Beam dengan semantik setidaknya satu kali, Anda dapat menetapkan UseStorageApiConnectionPool ke TRUE untuk mengaktifkan multipleks.

Lihat kuota di Konsol Google Cloud

Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas koneksi serentak berdasarkan region Anda. Opsinya adalah ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU, dan ConcurrentWriteConnectionsPerProjectRegion masing-masing untuk us, eu, dan region lainnya.

Sebaiknya siapkan pemberitahuan untuk memantau penggunaan dan batas kuota. Selain itu, jika pola traffic Anda mengalami lonjakan dan/atau pertumbuhan organik reguler, sebaiknya pertimbangkan untuk menyediakan kuota lebih dari 25 - 50% untuk menangani permintaan yang tidak terduga.

Throughput Throughput 3 GB per detik di multi-region; 300 MB per detik di region Anda dapat melakukan streaming hingga 3 GBps di multi-region us dan eu, serta 300 MBps di region lain per project.
Lihat kuota di Konsol Google Cloud

Anda dapat melihat metrik batas dan kuota penggunaan untuk project Anda di Cloud Monitoring. Pilih nama batas throughput berdasarkan region Anda. Opsinya adalah AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU, dan AppendBytesThroughputPerProjectRegion masing-masing untuk us, eu, dan region lainnya. Kuota throughput tulis diukur berdasarkan project tempat set data target berada, bukan project klien.

Sebaiknya siapkan pemberitahuan untuk memantau penggunaan dan batas kuota. Selain itu, jika pola traffic Anda mengalami lonjakan dan/atau pertumbuhan organik reguler, sebaiknya pertimbangkan untuk menyediakan kuota lebih dari 25 - 50% untuk menangani permintaan yang tidak terduga.


CreateWriteStream permintaan 10.000 aliran data setiap jam, per project per region Anda dapat memanggil CreateWriteStream hingga 10.000 kali per jam per project per region. Pertimbangkan untuk menggunakan aliran data default jika Anda tidak memerlukan semantik tepat satu kali. Kuota ini adalah per jam, tetapi metrik yang ditampilkan di konsol Google Cloud adalah per menit.
Byte aliran data tertunda 10 TB di multi-region; 1 TB di region Untuk setiap commit yang dipicu, Anda dapat meng-commit hingga 10 TB di multi-region us dan eu, dan 1 TB di region lain. Tidak ada pelaporan kuota untuk kuota ini.

Batas berikut berlaku untuk permintaan Storage Write API:

Batas Default Catatan
Commit batch 10.000 aliran data per tabel Anda dapat meng-commit hingga 10.000 aliran data dalam setiap panggilan BatchCommitWriteStream.
Ukuran permintaan AppendRows 10 MB Ukuran permintaan maksimum adalah 10 MB.

Streaming insert

Kuota dan batas berikut berlaku saat Anda melakukan streaming data ke BigQuery menggunakan legacy streaming API. Untuk mengetahui informasi tentang strategi agar tidak melebihi batas ini, lihat Memecahkan masalah error kuota. Jika melebihi kuota ini, Anda akan mendapatkan error quotaExceeded.

Batas Default Catatan
Byte maksimum per detik per project di multi-region us dan eu 1 GB per detik

Project Anda dapat melakukan streaming hingga 1 GB per detik. Kuota ini bersifat kumulatif dalam multi-region tertentu. Dengan kata lain, jumlah byte per detik yang di-streaming ke semua tabel untuk project tertentu dalam multi-region dibatasi hingga 1 GB.

Melebihi batas ini akan menyebabkan error quotaExceeded.

Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan.

Byte maksimum per detik per project di semua lokasi lain 300 MB per detik

Project Anda dapat melakukan streaming hingga 300 MB per detik di semua lokasi kecuali multi-region us dan eu. Kuota ini bersifat kumulatif dalam multi-region tertentu. Dengan kata lain, jumlah byte per detik yang di-streaming ke semua tabel untuk project tertentu dalam suatu region dibatasi hingga 300 MB.

Melebihi batas ini akan menyebabkan error quotaExceeded.

Jika perlu, Anda dapat meminta penambahan kuota dengan menghubungi Cloud Customer Care. Minta peningkatan sedini mungkin, minimal dua minggu sebelum Anda membutuhkannya. Peningkatan kuota memerlukan waktu agar tersedia, terutama jika terjadi peningkatan yang signifikan.

Ukuran baris maksimum 10 MB Melebihi nilai ini akan menyebabkan error invalid.
Batas ukuran permintaan HTTP 10 MB

Melebihi nilai ini akan menyebabkan error invalid.

Secara internal, permintaan diterjemahkan dari JSON HTTP ke dalam struktur data internal. Struktur data yang diterjemahkan memiliki batas ukuran yang diterapkan sendiri. Sulit untuk memprediksi ukuran struktur data internal yang dihasilkan, tetapi jika Anda mempertahankan permintaan HTTP ke 10 MB atau kurang, kemungkinan mencapai batas internal akan rendah.

Baris maksimum per permintaan 50.000 baris Jumlah maksimum yang disarankan adalah 500 baris. Batching dapat meningkatkan performa dan throughput pada suatu titik, tetapi memiliki biaya latensi per permintaan yang rendah. Terlalu sedikit baris per permintaan dan adanya overhead di setiap permintaan dapat menyebabkan penyerapan jadi tidak efisien. Terlalu banyak baris per permintaan dan throughput dapat menurunkan performa. Bereksperimenlah dengan data representatif (ukuran skema dan data) untuk menentukan ukuran batch yang ideal untuk data Anda.
Panjang kolom insertId 128 karakter Melebihi nilai ini akan menyebabkan error invalid.

Untuk kuota streaming tambahan, lihat artikel Meminta penambahan kuota.

Bandwidth

Kuota berikut berlaku untuk bandwidth replikasi:

Kuota Default Catatan
Bandwidth replikasi pengisian ulang awal maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. Kuota 10 Gbps fisik per region untuk sebagian besar project
Bandwidth replikasi berkelanjutan maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. Kuota 5 GiBps fisik per region untuk sebagian besar project
Bandwidth replikasi turbo maksimum untuk setiap region yang memiliki traffic keluar data lintas region dari replika utama ke replika sekunder. Kuota default 5 GiBps fisik per region untuk sebagian besar project Kuota bandwidth replikasi Turbo tidak berlaku untuk operasi pengisian ulang awal.

Jika bandwidth replika project melebihi kuota tertentu, replika dari project yang terpengaruh mungkin berhenti dengan error rateLimitExceeded yang menyertakan detail kuota yang terlampaui.