Tersemat dalam tugas kueri, BigQuery menyertakan informasi paket kueri dan waktu diagnostik. Hal ini mirip dengan informasi yang diberikan oleh pernyataan seperti EXPLAIN
dalam sistem analisis dan database lain. Informasi ini dapat diambil dari respons API metode seperti jobs.get
.
Untuk kueri yang berjalan lama, BigQuery akan memperbarui statistik ini secara berkala. Update ini terjadi secara mandiri pada tingkat polling status tugas, tetapi biasanya tidak akan terjadi lebih sering dari setiap 30 detik. Selain itu, tugas kueri yang tidak menggunakan resource eksekusi, seperti permintaan uji coba atau hasil yang dapat ditayangkan dari hasil yang di-cache, tidak akan menyertakan informasi diagnostik tambahan, meskipun mungkin ada statistik lain.
Latar belakang
Saat menjalankan tugas kueri, BigQuery mengonversi pernyataan SQL deklaratif menjadi grafik eksekusi, yang dipecah menjadi serangkaian stage kueri, yang terdiri dari kumpulan yang lebih terperinci langkah-langkah eksekusi. BigQuery memanfaatkan arsitektur paralel yang sangat terdistribusi untuk menjalankan kueri ini. Stage akan membuat model unit tugas yang dapat dijalankan oleh banyak worker potensial secara paralel. Tahapan berkomunikasi satu sama lain menggunakan arsitektur shuffle yang didistribusikan dengan cepat.
Dalam paket kueri, istilah unit tugas dan worker digunakan untuk menyampaikan informasi secara khusus tentang paralelisme. Di bagian lain dalam BigQuery, Anda mungkin menemukan istilah slot, yaitu representasi abstrak dari beberapa faset eksekusi kueri, termasuk komputasi, memori, dan resource I/O. Statistik tugas tingkat teratas memberikan perkiraan biaya kueri tertentu menggunakan estimasi totalSlotMs
kueri menggunakan penghitungan terpisah ini.
Properti penting lainnya dari arsitektur eksekusi kueri adalah bersifat dinamis. Artinya, paket kueri dapat diubah saat kueri sedang berjalan. Stage yang diperkenalkan saat kueri berjalan sering digunakan untuk meningkatkan distribusi data di seluruh worker kueri. Dalam paket kueri di mana proses tersebut berlangsung, stage ini biasanya dilabeli sebagai Stage partisi ulang.
Selain paket kueri, tugas kueri juga mengekspos linimasa eksekusi, yang menyediakan akuntansi unit tugas yang telah selesai, tertunda, dan aktif dalam worker kueri. Kueri dapat memiliki beberapa tahap dengan pekerja aktif secara bersamaan, dan linimasa dimaksudkan untuk menampilkan progres kueri secara keseluruhan.
Melihat informasi dengan Konsol Google Cloud
Di Konsol Google Cloud, Anda dapat melihat detail paket kueri untuk kueri yang telah selesai dengan mengklik tombol Execution Details (di dekat tombol Results).
Informasi paket kueri
Dalam respons API, paket kueri direpresentasikan sebagai daftar stage kueri. Setiap item dalam daftar menunjukkan statistik ringkasan per stage, informasi langkah yang mendetail, dan klasifikasi pengaturan waktu stage. Tidak semua detail dirender dalam Konsol Google Cloud, tetapi semuanya dapat tersedia dalam respons API.
Ringkasan stage
Kolom ringkasan untuk setiap stage dapat mencakup hal berikut:
Kolom API | Deskripsi |
---|---|
id |
ID numerik unik untuk stage. |
name |
Nama ringkasan sederhana untuk stage. steps dalam stage memberikan detail tambahan tentang langkah-langkah eksekusi. |
status |
Status eksekusi stage. Status yang mungkin termasuk PENDING, RUNNING, COMPLETE, FAILED, dan CANCELLED. |
inputStages |
Daftar ID yang membentuk grafik dependensi stage. Misalnya, stage JOIN sering memerlukan dua stage dependen yang menyiapkan data di sisi kiri dan kanan hubungan JOIN. |
startMs |
Stempel waktu, dalam epoch milidetik, yang merepresentasikan kapan worker pertama dalam stage memulai eksekusi. |
endMs |
Stempel waktu, dalam epoch milidetik, yang merepresentasikan kapan worker terakhir menyelesaikan eksekusi. |
steps |
Daftar langkah-langkah eksekusi yang lebih mendetail dalam stage. Lihat bagian berikutnya untuk mengetahui informasi selengkapnya. |
recordsRead |
Ukuran input stage sebagai jumlah catatan, di semua worker stage. |
recordsWritten |
Ukuran output stage sebagai jumlah catatan, di semua worker stage. |
parallelInputs |
Jumlah unit tugas yang dapat diparalelkan untuk stage. Bergantung pada stage dan kueri, jumlah ini dapat mewakili jumlah segmen kolom dalam tabel, atau jumlah partisi dalam shuffle perantara. |
completedParallelInputs |
Jumlah unit tugas dalam stage yang telah diselesaikan. Untuk sebagian kueri, tidak semua input dalam satu stage harus diselesaikan agar stage tersebut dapat diselesaikan. |
shuffleOutputBytes |
Merepresentasikan total byte yang ditulis di semua worker dalam stage kueri. |
shuffleOutputBytesSpilled |
Kueri yang mengirimkan data signifikan antar-stage mungkin perlu kembali ke transmisi berbasis disk. Statistik byte yang dialihkan menunjukkan berapa banyak data yang dialihkan ke disk. Bergantung pada algoritma pengoptimalan sehingga tidak bersifat deterministik untuk kueri tertentu. |
Klasifikasi pengaturan waktu per stage
Tahap kueri menyediakan klasifikasi pengaturan waktu stage, baik dalam bentuk relatif maupun absolut. Karena setiap tahap eksekusi merepresentasikan tugas yang dilakukan oleh satu atau beberapa pekerja independen, informasi diberikan dalam waktu rata-rata dan kasus terburuk. Waktu ini menunjukkan performa rata-rata untuk semua pekerja dalam satu stage serta performa pekerja paling lambat longtail untuk klasifikasi tertentu. Waktu rata-rata dan waktu maksimum selanjutnya dibagi menjadi representasi absolut dan relatif. Untuk statistik berbasis rasio, data diberikan sebagai hasil bagi dari waktu terlama yang dihabiskan oleh pekerja mana pun di segmen mana pun.
Konsol Google Cloud menampilkan pengaturan waktu stage menggunakan representasi pengaturan waktu relatif.
Informasi pengaturan waktu stage dilaporkan sebagai berikut:
Pengaturan waktu relatif | Pengaturan waktu absolut | Numerator rasio |
---|---|---|
waitRatioAvg |
waitMsAvg |
Waktu yang dihabiskan oleh worker rata-rata yang menunggu dijadwalkan. |
waitRatioMax |
waitMsMax |
Waktu yang dihabiskan oleh worker paling lambat yang menunggu dijadwalkan. |
readRatioAvg |
readMsAvg |
Waktu yang dihabiskan rata-rata worker untuk membaca data input. |
readRatioMax |
readMsMax |
Waktu yang dihabiskan worker paling lambat untuk membaca data input. |
computeRatioAvg |
computeMsAvg |
Waktu yang dihabiskan oleh rata-rata worker yang terikat ke CPU. |
computeRatioMax |
computeMsMax |
Waktu yang dihabiskan oleh worker paling lambat yang terikat oleh CPU. |
writeRatioAvg |
writeMsAvg |
Waktu yang dihabiskan oleh worker rata-rata untuk menulis data output. |
writeRatioMax |
writeMsMax |
Waktu yang dihabiskan worker paling lambat untuk menulis data output. |
Ringkasan langkah
Langkah-langkah berisi operasi yang dijalankan oleh setiap pekerja dalam satu stage, yang ditampilkan sebagai daftar operasi yang diurutkan. Setiap operasi langkah memiliki kategori, dengan beberapa operasi yang memberikan informasi yang lebih mendetail. Kategori operasi yang ada dalam paket kueri mencakup hal berikut:
Kategori langkah | Deskripsi |
---|---|
READ |
Pembacaan satu atau beberapa kolom dari tabel input atau dari shuffle tingkat menengah. Hanya enam belas kolom pertama yang dibaca yang ditampilkan dalam detail-detail langkah. |
WRITE |
Penulisan satu atau beberapa kolom ke tabel output atau ke shuffle tingkat menengah. Untuk output yang dipartisi HASH dari suatu stage, ini juga mencakup kolom yang digunakan sebagai kunci partisi. |
COMPUTE |
Evaluasi ekspresi dan fungsi SQL. |
FILTER |
Digunakan oleh klausa WHERE , OMIT IF , dan HAVING . |
SORT |
Operasi ORDER BY yang menyertakan kunci kolom dan urutan pengurutan. |
AGGREGATE |
Mengimplementasikan agregasi untuk klausa seperti GROUP BY atau COUNT , dan lainnya. |
LIMIT |
Mengimplementasikan klausa LIMIT . |
JOIN |
Mengimplementasikan join untuk klausa seperti JOIN , antara lain; menyertakan jenis join dan mungkin kondisi join. |
ANALYTIC_FUNCTION |
Pemanggilan fungsi jendela (juga dikenal sebagai "fungsi analisis"). |
USER_DEFINED_FUNCTION |
Pemanggilan ke fungsi yang ditentukan pengguna (UDF). |
Menafsirkan dan mengoptimalkan langkah-langkah
Bagian berikut menjelaskan cara menafsirkan langkah-langkah dalam rencana kueri dan memberikan cara untuk mengoptimalkan kueri Anda.
READ
langkah
Langkah READ
berarti bahwa suatu tahap mengakses data untuk diproses. Data dapat
dibaca langsung dari tabel yang dirujuk dalam kueri, atau dari memori
shuffle. Saat data dari tahap sebelumnya dibaca, BigQuery akan membaca data dari memori shuffle. Jumlah data yang dipindai memengaruhi biaya saat menggunakan slot on-demand dan memengaruhi performa saat menggunakan reservasi.
Potensi masalah performa
- Pemindaian besar tabel yang tidak dipartisi: jika kueri hanya memerlukan sebagian kecil data, hal ini mungkin menunjukkan bahwa pemindaian tabel tidak efisien. Pempartisian dapat menjadi strategi pengoptimalan yang baik.
- Pemindaian tabel besar dengan rasio filter kecil: hal ini menunjukkan bahwa filter tidak mengurangi data yang dipindai secara efektif. Pertimbangkan untuk merevisi kondisi filter.
- Shuffle byte yang ditransfer ke disk: hal ini menunjukkan bahwa data tidak disimpan secara efektif menggunakan teknik pengoptimalan seperti pengelompokan, yang dapat mempertahankan data serupa dalam cluster.
Optimalkan
- Pemfilteran yang ditargetkan: gunakan klausa
WHERE
secara strategis untuk memfilter data yang tidak relevan sedini mungkin dalam kueri. Hal ini mengurangi jumlah data yang perlu diproses oleh kueri. - Partisi dan pengelompokan: BigQuery menggunakan partisi dan pengelompokan tabel untuk menemukan segmen data tertentu secara efisien.
Pastikan
tabel Anda dipartisi dan dikelompokkan berdasarkan pola kueri standar Anda
untuk meminimalkan data yang dipindai selama langkah
READ
. - Pilih kolom yang relevan: hindari penggunaan pernyataan
SELECT *
. Sebagai gantinya, pilih kolom tertentu atau gunakanSELECT * EXCEPT
untuk menghindari pembacaan data yang tidak diperlukan. - Tampilan terwujud: tampilan terwujud dapat melakukan komputasi sebelumnya dan
menyimpan agregasi yang sering digunakan, sehingga berpotensi mengurangi kebutuhan untuk membaca
tabel dasar selama langkah
READ
untuk kueri yang menggunakan tampilan tersebut.
COMPUTE
langkah
Pada langkah COMPUTE
, BigQuery melakukan tindakan berikut
pada data Anda:
- Mengevaluasi ekspresi dalam
SELECT
,WHERE
,HAVING
, dan klausa kueri lainnya, termasuk penghitungan, perbandingan, dan operasi logis. - Menjalankan fungsi SQL bawaan dan fungsi yang ditentukan pengguna.
- Memfilter baris data berdasarkan kondisi dalam kueri.
Optimalkan
Rencana kueri dapat mengungkapkan bottleneck dalam langkah COMPUTE
.
Cari tahap dengan komputasi yang luas atau jumlah baris yang diproses dalam jumlah besar.
- Korelasikan langkah
COMPUTE
dengan volume data: jika tahap menunjukkan komputasi yang signifikan dan memproses data dalam jumlah besar, tahap tersebut mungkin merupakan kandidat yang baik untuk pengoptimalan. - Data yang terdistorsi: untuk tahap dengan maksimum komputasi yang jauh lebih tinggi daripada rata-rata komputasi, hal ini menunjukkan bahwa tahap tersebut menghabiskan waktu yang tidak sebanding untuk memproses beberapa slice data. Pertimbangkan untuk melihat distribusi data untuk mengetahui apakah ada skew data.
- Pertimbangkan jenis data: gunakan jenis data yang sesuai untuk kolom Anda. Misalnya, menggunakan bilangan bulat, tanggal dan waktu, serta stempel waktu, bukan string, dapat meningkatkan performa.
WRITE
langkah
Langkah WRITE
terjadi untuk data perantara dan output akhir.
- Menulis untuk mengacak memori: dalam kueri multi-tahap, langkah
WRITE
sering kali melibatkan pengiriman data yang diproses ke tahap lain untuk pemrosesan lebih lanjut. Hal ini umum untuk memori shuffle, yang menggabungkan atau menggabungkan data dari beberapa sumber. Data yang ditulis selama tahap ini biasanya merupakan hasil perantara, bukan output akhir. - Output akhir: hasil kueri ditulis ke tabel tujuan atau sementara.
Partisi Hash
Saat tahap dalam rencana kueri menulis data ke output yang dipartisi hash, BigQuery akan menulis kolom yang disertakan dalam output dan kolom yang dipilih sebagai kunci partisi.
Optimalkan
Meskipun langkah WRITE
itu sendiri mungkin tidak dioptimalkan secara langsung, memahami
perannya dapat membantu Anda mengidentifikasi potensi bottleneck di tahap sebelumnya:
- Minimalkan data yang ditulis: berfokuslah untuk mengoptimalkan tahap sebelumnya dengan pemfilteran dan agregasi untuk mengurangi jumlah data yang ditulis selama langkah ini.
Partisi: penulisan sangat diuntungkan dengan partisi tabel. Jika data yang Anda tulis dibatasi pada partisi tertentu, BigQuery dapat melakukan operasi tulis yang lebih cepat.
Jika pernyataan DML memiliki klausa
WHERE
dengan kondisi statis terhadap kolom partisi tabel, BigQuery hanya akan mengubah partisi tabel yang relevan.Kompromi denormalisasi: denormalisasi terkadang dapat menyebabkan set hasil yang lebih kecil di langkah
WRITE
perantara. Namun, ada kekurangan seperti peningkatan penggunaan penyimpanan dan tantangan konsistensi data.
JOIN
langkah
Pada langkah JOIN
, BigQuery menggabungkan data dari dua sumber data. Join dapat menyertakan kondisi join. Join memerlukan banyak resource. Saat menggabungkan data besar di BigQuery, kunci join akan diacak secara independen agar sejajar di slot yang sama, sehingga join dilakukan secara lokal di setiap slot.
Rencana kueri untuk langkah JOIN
biasanya mengungkapkan detail berikut:
- Pola join: ini menunjukkan jenis join yang digunakan. Setiap jenis menentukan jumlah baris dari tabel yang digabungkan yang disertakan dalam set hasil.
- Join column: ini adalah kolom yang digunakan untuk mencocokkan baris antara sumber data. Pilihan kolom sangat penting untuk performa join.
Pola join
- Gabungan siaran: jika satu tabel, biasanya yang lebih kecil, dapat muat
dalam memori di satu node atau slot pekerja, BigQuery dapat
menyiarkannya ke semua node lain untuk melakukan join secara efisien. Cari
JOIN EACH WITH ALL
di detail langkah. - Hash join: jika tabel berukuran besar atau join siaran tidak cocok, hash join dapat digunakan. BigQuery menggunakan operasi hash dan
pengacakan untuk mengacak tabel kiri dan kanan sehingga kunci
yang cocok berakhir di slot yang sama untuk melakukan join lokal. Join hash adalah operasi yang mahal karena data perlu dipindahkan, tetapi join hash memungkinkan pencocokan baris yang efisien di seluruh hash. Cari
JOIN EACH WITH EACH
di detail langkah. - Gabungan mandiri: antipola SQL yang menggabungkan tabel dengan dirinya sendiri.
- Cross join: antipola SQL yang dapat menyebabkan masalah performa yang signifikan karena menghasilkan data output yang lebih besar daripada input.
- Gabungan miring: distribusi data di seluruh kunci join dalam satu tabel sangat miring dan dapat menyebabkan masalah performa. Cari kasus saat waktu komputasi maksimum jauh lebih besar daripada waktu komputasi rata-rata dalam rencana kueri. Untuk mengetahui informasi selengkapnya, lihat Join kardinalitas tinggi dan Ketidakseimbangan partisi.
Proses Debug
- Volume data besar: jika rencana kueri menunjukkan
jumlah data yang signifikan yang diproses selama langkah
JOIN
, selidiki kondisi join dan kunci join. Pertimbangkan untuk memfilter atau menggunakan kunci join yang lebih selektif. - Distribusi data yang miring: menganalisis distribusi data kunci join. Jika satu tabel sangat miring, pelajari strategi seperti memisahkan kueri atau pra-pemfilteran.
- Join kardinalitas tinggi: join yang menghasilkan lebih banyak baris secara signifikan daripada jumlah baris input kiri dan kanan dapat mengurangi performa kueri secara drastis. Hindari join yang menghasilkan baris dalam jumlah sangat besar.
- Pengurutan tabel yang salah: Pastikan Anda telah memilih jenis join yang sesuai, seperti
INNER
atauLEFT
, dan mengurutkan tabel dari yang terbesar ke yang terkecil berdasarkan persyaratan kueri Anda.
Optimalkan
- Kunci join selektif: untuk kunci join, gunakan
INT64
, bukanSTRING
, jika memungkinkan. PerbandinganSTRING
lebih lambat daripada perbandinganINT64
karena membandingkan setiap karakter dalam string. Bilangan bulat hanya memerlukan satu perbandingan. - Memfilter sebelum bergabung: terapkan filter klausa
WHERE
pada setiap tabel sebelum penggabungan. Hal ini mengurangi jumlah data yang terlibat dalam operasi join. - Hindari fungsi pada kolom join: hindari memanggil fungsi pada kolom join. Sebagai gantinya, standarkan data tabel Anda selama proses penyerapan atau pasca-penyerapan menggunakan pipeline SQL ELT. Pendekatan ini menghilangkan kebutuhan untuk mengubah kolom join secara dinamis, yang memungkinkan join yang lebih efisien tanpa mengorbankan integritas data.
- Hindari self join: self join biasanya digunakan untuk menghitung hubungan yang bergantung pada baris. Namun, self-join berpotensi melipatgandakan jumlah baris output, sehingga menyebabkan masalah performa. Daripada mengandalkan self-join, pertimbangkan untuk menggunakan fungsi jendela (analitik).
- Tabel besar terlebih dahulu: meskipun pengoptimal kueri SQL dapat menentukan tabel mana yang harus berada di sisi gabungan mana, urutkan tabel gabungan Anda dengan tepat. Praktik terbaiknya adalah tempatkan tabel terbesar terlebih dahulu, diikuti dengan tabel terkecil, lalu ukuran yang lebih kecil.
- Denormalisasi: dalam beberapa kasus, denormalisasi tabel secara strategis (menambahkan data redundan) dapat menghilangkan join sepenuhnya. Namun, pendekatan ini memiliki kompromi penyimpanan dan konsistensi data.
- Mempartisi dan mengelompokkan: mempartisi tabel berdasarkan kunci join dan mengelompokkan data yang di-colocate dapat mempercepat join secara signifikan dengan memungkinkan BigQuery menargetkan partisi data yang relevan.
- Mengoptimalkan join yang miring: untuk menghindari masalah performa yang terkait dengan join yang miring, filter data dari tabel sedini mungkin atau bagi kueri menjadi dua kueri atau lebih.
AGGREGATE
langkah
Pada langkah AGGREGATE
, BigQuery menggabungkan dan mengelompokkan data.
Proses Debug
- Detail tahap: periksa jumlah baris input ke dan baris output dari agregasi, serta ukuran pengacakan untuk menentukan jumlah pengurangan data yang dicapai langkah agregat dan apakah pengacakan data terlibat.
- Ukuran shuffle: ukuran shuffle yang besar mungkin menunjukkan bahwa sejumlah besar data dipindahkan di seluruh node pekerja selama agregasi.
- Periksa distribusi data: pastikan data didistribusikan secara merata di seluruh partisi. Distribusi data yang miring dapat menyebabkan beban kerja yang tidak seimbang dalam langkah gabungan.
- Tinjau agregasi: analisis klausa agregasi untuk memastikan klausa tersebut diperlukan dan efisien.
Optimalkan
- Clustering: Mengelompokkan tabel berdasarkan kolom yang sering digunakan dalam
GROUP BY
,COUNT
, atau klausa agregasi lainnya. - Pempartisi: pilih strategi partisi yang sesuai dengan pola kueri Anda. Pertimbangkan untuk menggunakan tabel berpartisi waktu penyerapan untuk mengurangi jumlah data yang dipindai selama agregasi.
- Melakukan agregasi lebih awal: jika memungkinkan, lakukan agregasi lebih awal di pipeline kueri. Hal ini dapat mengurangi jumlah data yang perlu diproses selama agregasi.
- Pengoptimalan pengurutan acak: jika pengurutan acak adalah bottleneck, pelajari cara untuk meminimalkannya. Misalnya, denormalisasi tabel atau gunakan pengelompokan untuk menempatkan data yang relevan.
Kasus ekstrem
- Aggregate DISTINCT: kueri dengan agregat
DISTINCT
dapat memerlukan komputasi yang mahal, terutama pada set data besar. Pertimbangkan alternatif sepertiAPPROX_COUNT_DISTINCT
untuk hasil perkiraan. - Grup dalam jumlah besar: jika kueri menghasilkan grup dalam jumlah besar, kueri tersebut mungkin akan menggunakan memori dalam jumlah yang cukup besar. Dalam kasus tersebut, pertimbangkan untuk membatasi jumlah grup atau menggunakan strategi agregasi yang berbeda.
REPARTITION
langkah
REPARTITION
dan COALESCE
adalah teknik pengoptimalan yang diterapkan BigQuery langsung ke data yang diacak dalam kueri.
REPARTITION
: operasi ini bertujuan untuk menyeimbangkan kembali distribusi data di seluruh node pekerja. Misalnya, setelah mengacak, satu node pekerja mendapatkan data dalam jumlah yang tidak proporsional. LangkahREPARTITION
mendistribusikan ulang data secara lebih merata, sehingga mencegah satu pekerja menjadi bottleneck. Hal ini sangat penting untuk operasi yang sarat komputasi seperti join.COALESCE
: langkah ini terjadi saat Anda memiliki banyak bucket data kecil setelah mengacak. LangkahCOALESCE
menggabungkan bucket ini menjadi bucket yang lebih besar, sehingga mengurangi overhead yang terkait dengan pengelolaan sejumlah kecil data. Hal ini dapat sangat bermanfaat saat menangani set hasil perantara yang sangat kecil.
Jika Anda melihat langkah REPARTITION
atau COALESCE
dalam rencana kueri, hal ini tidak
selalu berarti ada masalah dengan kueri Anda. Hal ini sering kali merupakan tanda bahwa
BigQuery secara proaktif mengoptimalkan distribusi data untuk performa
yang lebih baik. Namun, jika Anda melihat operasi ini berulang kali, hal ini mungkin
menunjukkan bahwa data Anda secara inheren terdistorsi atau kueri Anda menyebabkan
pengacakan data yang berlebihan.
Optimalkan
Untuk mengurangi jumlah langkah REPARTITION
, coba langkah berikut:
- Distribusi data: pastikan tabel Anda dipartisi dan dikluster secara efektif. Data yang didistribusikan dengan baik mengurangi kemungkinan ketidakseimbangan yang signifikan setelah pengacakan.
- Struktur kueri: analisis kueri untuk mengetahui potensi sumber penyimpangan data. Misalnya, apakah ada filter atau join yang sangat selektif yang menghasilkan subkumpulan data kecil yang diproses di satu pekerja?
- Strategi join: bereksperimen dengan berbagai strategi join untuk melihat apakah strategi tersebut mengarah ke distribusi data yang lebih seimbang.
Untuk mengurangi jumlah langkah COALESCE
, coba langkah berikut:
- Strategi agregasi: pertimbangkan untuk melakukan agregasi lebih awal di
pipeline kueri. Hal ini dapat membantu mengurangi jumlah kumpulan hasil
perantara kecil yang mungkin menyebabkan langkah
COALESCE
. - Volume data: jika Anda menangani set data yang sangat kecil,
COALESCE
mungkin bukan masalah yang signifikan.
Jangan melakukan pengoptimalan secara berlebihan. Pengoptimalan yang terlalu dini dapat membuat kueri Anda lebih kompleks tanpa memberikan manfaat yang signifikan.
Penjelasan untuk kueri gabungan
Kueri gabungan memungkinkan Anda mengirim pernyataan kueri ke sumber data eksternal menggunakan fungsi EXTERNAL_QUERY
.
Kueri gabungan tunduk pada teknik pengoptimalan yang dikenal sebagai
pushdown SQL dan
rencana kueri menunjukkan operasi yang didorong ke sumber data eksternal, jika ada.
Misalnya, jika Anda menjalankan kueri berikut:
SELECT id, name
FROM EXTERNAL_QUERY("<connection>", "SELECT * FROM company")
WHERE country_code IN ('ee', 'hu') AND name like '%TV%'
Rencana kueri akan menampilkan langkah-langkah tahap berikut:
$1:id, $2:name, $3:country_code
FROM table_for_external_query_$_0(
SELECT id, name, country_code
FROM (
/*native_query*/
SELECT * FROM company
)
WHERE in(country_code, 'ee', 'hu')
)
WHERE and(in($3, 'ee', 'hu'), like($2, '%TV%'))
$1, $2
TO __stage00_output
Dalam rencana ini, table_for_external_query_$_0(...)
mewakili
fungsi EXTERNAL_QUERY
. Dalam tanda kurung, Anda dapat melihat kueri yang dijalankan oleh sumber data eksternal. Berdasarkan hal itu, Anda dapat melihat bahwa:
- Sumber data eksternal hanya menampilkan 3 kolom yang dipilih.
- Sumber data eksternal hanya menampilkan baris dengan
country_code
berupa'ee'
atau'hu'
. - Operator
LIKE
tidak didorong ke bawah dan dievaluasi oleh BigQuery.
Sebagai perbandingan, jika tidak ada pushdown, rencana kueri akan menampilkan langkah-langkah tahap berikut:
$1:id, $2:name, $3:country_code
FROM table_for_external_query_$_0(
SELECT id, name, description, country_code, primary_address, secondary address
FROM (
/*native_query*/
SELECT * FROM company
)
)
WHERE and(in($3, 'ee', 'hu'), like($2, '%TV%'))
$1, $2
TO __stage00_output
Kali ini, sumber data eksternal menampilkan semua kolom dan semua baris dari tabel company
dan BigQuery melakukan pemfilteran.
Metadata linimasa
Linimasa kueri melaporkan progres pada waktu tertentu, yang menyediakan tampilan snapshot progres kueri secara keseluruhan. Linimasa direpresentasikan sebagai serangkaian contoh yang melaporkan detail berikut:
Kolom | Deskripsi |
---|---|
elapsedMs |
Milidetik berlalu sejak awal eksekusi kueri. |
totalSlotMs |
Representasi kumulatif slot milidetik yang digunakan oleh kueri. |
pendingUnits |
Total unit tugas yang dijadwalkan dan menunggu eksekusi. |
activeUnits |
Total unit tugas aktif yang sedang diproses oleh pekerja. |
completedUnits |
Total unit tugas yang telah diselesaikan saat menjalankan kueri ini. |
Contoh kueri
Kueri berikut menghitung jumlah baris dalam set data publik Shakespeare dan memiliki jumlah bersyarat kedua yang membatasi hasil pada baris yang merujuk ke 'hamlet':
SELECT
COUNT(1) as rowcount,
COUNTIF(corpus = 'hamlet') as rowcount_hamlet
FROM `publicdata.samples.shakespeare`
Klik Execution details untuk melihat paket kueri:
Indikator warna menunjukkan pengaturan waktu relatif untuk semua langkah di seluruh stage.
Untuk mempelajari lebih lanjut langkah-langkah stage eksekusi, klik
untuk meluaskan detail stage tersebut:Dalam contoh ini, waktu terlama di segmen mana pun adalah waktu yang dihabiskan oleh satu worker di Stage 01 untuk menunggu Stage 00 selesai. Hal ini karena Stage 01 bergantung pada input Stage 00, dan tidak dapat dimulai hingga stage pertama menulis output-nya dalam mode shuffle menengah.
Pelaporan error
Tugas kueri mungkin saja gagal di tengah eksekusi. Karena informasi paket diperbarui secara berkala, Anda dapat mengamati di bagian mana kegagalan terjadi dalam grafik eksekusi. Dalam Konsol Google Cloud, stage berhasil atau gagal dilabeli dengan tanda centang atau tanda seru di samping nama stage.
Untuk mengetahui informasi lebih lanjut tentang cara menafsirkan dan mengatasi error, lihat panduan pemecahan masalah.
Representasi contoh API
Informasi paket kueri disematkan dalam informasi respons tugas, dan Anda dapat mengambilnya dengan memanggil jobs.get
. Misalnya, kutipan respons JSON berikut untuk tugas yang menampilkan contoh kueri hamlet menunjukkan paket kueri dan informasi linimasa.
"statistics": { "creationTime": "1576544129234", "startTime": "1576544129348", "endTime": "1576544129681", "totalBytesProcessed": "2464625", "query": { "queryPlan": [ { "name": "S00: Input", "id": "0", "startMs": "1576544129436", "endMs": "1576544129465", "waitRatioAvg": 0.04, "waitMsAvg": "1", "waitRatioMax": 0.04, "waitMsMax": "1", "readRatioAvg": 0.32, "readMsAvg": "8", "readRatioMax": 0.32, "readMsMax": "8", "computeRatioAvg": 1, "computeMsAvg": "25", "computeRatioMax": 1, "computeMsMax": "25", "writeRatioAvg": 0.08, "writeMsAvg": "2", "writeRatioMax": 0.08, "writeMsMax": "2", "shuffleOutputBytes": "18", "shuffleOutputBytesSpilled": "0", "recordsRead": "164656", "recordsWritten": "1", "parallelInputs": "1", "completedParallelInputs": "1", "status": "COMPLETE", "steps": [ { "kind": "READ", "substeps": [ "$1:corpus", "FROM publicdata.samples.shakespeare" ] }, { "kind": "AGGREGATE", "substeps": [ "$20 := COUNT($30)", "$21 := COUNTIF($31)" ] }, { "kind": "COMPUTE", "substeps": [ "$30 := 1", "$31 := equal($1, 'hamlet')" ] }, { "kind": "WRITE", "substeps": [ "$20, $21", "TO __stage00_output" ] } ] }, { "name": "S01: Output", "id": "1", "startMs": "1576544129465", "endMs": "1576544129480", "inputStages": [ "0" ], "waitRatioAvg": 0.44, "waitMsAvg": "11", "waitRatioMax": 0.44, "waitMsMax": "11", "readRatioAvg": 0, "readMsAvg": "0", "readRatioMax": 0, "readMsMax": "0", "computeRatioAvg": 0.2, "computeMsAvg": "5", "computeRatioMax": 0.2, "computeMsMax": "5", "writeRatioAvg": 0.16, "writeMsAvg": "4", "writeRatioMax": 0.16, "writeMsMax": "4", "shuffleOutputBytes": "17", "shuffleOutputBytesSpilled": "0", "recordsRead": "1", "recordsWritten": "1", "parallelInputs": "1", "completedParallelInputs": "1", "status": "COMPLETE", "steps": [ { "kind": "READ", "substeps": [ "$20, $21", "FROM __stage00_output" ] }, { "kind": "AGGREGATE", "substeps": [ "$10 := SUM_OF_COUNTS($20)", "$11 := SUM_OF_COUNTS($21)" ] }, { "kind": "WRITE", "substeps": [ "$10, $11", "TO __stage01_output" ] } ] } ], "estimatedBytesProcessed": "2464625", "timeline": [ { "elapsedMs": "304", "totalSlotMs": "50", "pendingUnits": "0", "completedUnits": "2" } ], "totalPartitionsProcessed": "0", "totalBytesProcessed": "2464625", "totalBytesBilled": "10485760", "billingTier": 1, "totalSlotMs": "50", "cacheHit": false, "referencedTables": [ { "projectId": "publicdata", "datasetId": "samples", "tableId": "shakespeare" } ], "statementType": "SELECT" }, "totalSlotMs": "50" },
Menggunakan informasi eksekusi
Paket kueri BigQuery memberikan informasi tentang cara layanan mengeksekusi kueri, tetapi sifat layanan yang terkelola membatasi bisa tidaknya beberapa detail ditindaklanjuti secara langsung. Banyak pengoptimalan terjadi secara otomatis menggunakan layanan ini, yang dapat berbeda dengan lingkungan lain karena penyesuaian, penyediaan, dan pemantauan dapat memerlukan staf khusus yang berpengetahuan luas.
Untuk mengetahui teknik tertentu yang dapat meningkatkan eksekusi dan performa kueri, baca dokumentasi praktik terbaik. Statistik paket dan linimasa kueri dapat membantu Anda memahami apakah stage tertentu mendominasi penggunaan resource. Misalnya, tahap JOIN yang menghasilkan baris output yang jauh lebih banyak daripada baris input dapat mengindikasikan peluang untuk memfilter lebih awal dalam kueri.
Selain itu, informasi linimasa dapat membantu mengidentifikasi apakah kueri tertentu lambat secara terpisah atau karena efek dari kueri lain yang menangani resource yang sama. Jika Anda mengamati bahwa jumlah unit aktif tetap terbatas selama masa aktif kueri, tetapi jumlah unit tugas yang diantrekan tetap tinggi, hal ini dapat mewakili kasus ketika pengurangan jumlah kueri serentak dapat secara signifikan meningkatkan waktu eksekusi secara keseluruhan untuk kueri tertentu.