Ringkasan inferensi model

Dokumen ini menjelaskan jenis inferensi batch yang didukung BigQuery ML, yang mencakup:

Inferensi machine learning adalah proses menjalankan titik data ke dalam model machine learning untuk menghitung output seperti satu skor numerik. Proses ini juga disebut sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi".

Prediksi batch

Bagian berikut menjelaskan cara yang tersedia untuk melakukan prediksi di BigQuery ML.

Inferensi menggunakan model terlatih ML BigQuery

Prediksi di BigQuery ML tidak hanya digunakan untuk model supervised learning, tetapi juga model unsupervised learning.

BigQuery ML mendukung fungsi prediksi melalui fungsi ML.PREDICT, dengan model berikut:

Kategori Model Jenis Model Yang dilakukan ML.PREDICT
Supervised Learning Regresi linear & logistik

Hierarki yang ditingkatkan

Hutan acak

Jaringan Neural Dalam

Wide-and-Deep

AutoML Tables
Memprediksi label, baik nilai numerik untuk tugas regresi atau nilai kategori untuk tugas klasifikasi.
Unsupervised Learning K-means Menetapkan cluster ke entity.
PCA Menerapkan pengurangan dimensi ke entity dengan mengubahnya menjadi ruang yang direntangkan oleh vektor eigen.
Autoencoder Mengubah entity menjadi ruang sematan.

Inferensi menggunakan model yang diimpor

Dengan pendekatan ini, Anda akan membuat dan melatih model di luar BigQuery, mengimpornya menggunakan pernyataan CREATE MODEL, lalu menjalankan inferensi pada model tersebut menggunakan Fungsi ML.PREDICT. Semua pemrosesan inferensi terjadi di BigQuery, menggunakan data dari BigQuery. Model yang diimpor dapat melakukan supervised learning atau unsupervised learning.

BigQuery ML mendukung jenis model yang diimpor berikut:

Gunakan pendekatan ini untuk memanfaatkan model kustom yang dikembangkan dengan berbagai framework ML sekaligus memanfaatkan kecepatan inferensi ML BigQuery dan ko-lokasi dengan data.

Untuk mempelajari lebih lanjut, coba salah satu tutorial berikut:

Inferensi menggunakan model jarak jauh

Dengan pendekatan ini, Anda dapat membuat referensi ke model yang dihosting diPrediksi Vertex AI dengan menggunakan CREATE MODEL pernyataan , lalu jalankan inferensi padanya menggunakan fungsi ML.PREDICT. Semua pemrosesan inferensi terjadi di Vertex AI, menggunakan data dari BigQuery. Model jarak jauh dapat menjalankan supervised learning atau unsupervised learning.

Gunakan pendekatan ini untuk menjalankan inferensi terhadap model besar yang memerlukan dukungan hardware GPU yang disediakan oleh Vertex AI. Jika sebagian besar model Anda dihosting oleh Vertex AI, hal ini juga memungkinkan Anda menjalankan inferensi terhadap model tersebut menggunakan SQL, tanpa harus mem-build pipeline data secara manual untuk mengambil data ke Vertex AI dan membawa hasil prediksi kembali ke BigQuery.

Untuk mendapatkan petunjuk langkah demi langkah, lihat Membuat prediksi dengan model jarak jauh di Vertex AI.

Inferensi batch dengan model BigQuery di Vertex AI

BigQuery ML memiliki dukungan bawaan untuk prediksi batch, tanpa perlu menggunakan Vertex AI. Anda juga dapat mendaftarkan model BigQuery ML ke Model Registry untuk melakukan prediksi batch di Vertex AI menggunakan tabel BigQuery sebagai input. Namun, hal ini hanya dapat dilakukan dengan menggunakan Vertex AI API dan menetapkan InstanceConfig.instanceType ke object.

Prediksi online

Kemampuan inferensi bawaan BigQuery ML dioptimalkan untuk kasus penggunaan skala besar, seperti prediksi batch. Meskipun BigQuery ML memberikan hasil inferensi latensi rendah saat menangani data input kecil, Anda dapat mencapai prediksi online yang lebih cepat melalui integrasi yang lancar dengan Vertex AI.

Anda dapat mengelola model BigQuery ML dalam lingkungan Vertex AI, sehingga tidak perlu mengekspor model dari BigQuery ML sebelum men-deploy-nya sebagai endpoint Vertex AI. Dengan mengelola model dalam Vertex AI, Anda mendapatkan akses ke semua kemampuan MLOps Vertex AI, dan juga ke fitur seperti Vertex AI Feature Store.

Selain itu, Anda memiliki fleksibilitas untuk mengekspor model BigQuery ML ke Cloud Storage agar tersedia di platform hosting model lainnya.

Langkah selanjutnya