Ringkasan inferensi model
Dokumen ini menjelaskan jenis inferensi batch yang didukung BigQuery ML, yang mencakup:
Inferensi machine learning adalah proses menjalankan titik data ke dalam model machine learning untuk menghitung output seperti satu skor numerik. Proses ini juga disebut sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi".
Prediksi batch
Bagian berikut menjelaskan cara yang tersedia untuk melakukan prediksi di BigQuery ML.
Inferensi menggunakan model terlatih ML BigQuery
Prediksi di BigQuery ML tidak hanya digunakan untuk model supervised learning, tetapi juga model unsupervised learning.
BigQuery ML mendukung fungsi prediksi melalui
fungsi ML.PREDICT
,
dengan model berikut:
Kategori Model | Jenis Model | Yang dilakukan ML.PREDICT |
---|---|---|
Supervised Learning |
Regresi linear & logistik Hierarki yang ditingkatkan Hutan acak Jaringan Neural Dalam Wide-and-Deep AutoML Tables |
Memprediksi label, baik nilai numerik untuk tugas regresi atau nilai kategori untuk tugas klasifikasi. |
Unsupervised Learning | K-means | Menetapkan cluster ke entity. |
PCA | Menerapkan pengurangan dimensi ke entity dengan mengubahnya menjadi ruang yang direntangkan oleh vektor eigen. | |
Autoencoder | Mengubah entity menjadi ruang sematan. |
Inferensi menggunakan model yang diimpor
Dengan pendekatan ini, Anda akan membuat dan melatih model di luar
BigQuery, mengimpornya menggunakan
pernyataan CREATE MODEL
,
lalu menjalankan inferensi pada model tersebut menggunakan
Fungsi ML.PREDICT
.
Semua pemrosesan inferensi terjadi di BigQuery, menggunakan data dari
BigQuery. Model yang diimpor dapat melakukan supervised learning atau
unsupervised learning.
BigQuery ML mendukung jenis model yang diimpor berikut:
- Open Neural Network Exchange (ONNX) untuk model yang dilatih di PyTorch, scikit-learn, dan framework ML populer lainnya.
- TensorFlow
- TensorFlow Lite
- XGBoost
Gunakan pendekatan ini untuk memanfaatkan model kustom yang dikembangkan dengan berbagai framework ML sekaligus memanfaatkan kecepatan inferensi ML BigQuery dan ko-lokasi dengan data.
Untuk mempelajari lebih lanjut, coba salah satu tutorial berikut:
- Membuat prediksi dengan model TensorFlow yang diimpor
- Membuat prediksi dengan model scikit-learn dalam format ONNX
- Membuat prediksi dengan model PyTorch dalam format ONNX
Inferensi menggunakan model jarak jauh
Dengan pendekatan ini, Anda dapat membuat referensi ke model
yang dihosting diPrediksi Vertex AI
dengan menggunakan
CREATE MODEL
pernyataan ,
lalu jalankan inferensi padanya menggunakan
fungsi ML.PREDICT
.
Semua pemrosesan inferensi terjadi di Vertex AI, menggunakan data dari
BigQuery. Model jarak jauh dapat menjalankan supervised learning atau
unsupervised learning.
Gunakan pendekatan ini untuk menjalankan inferensi terhadap model besar yang memerlukan dukungan hardware GPU yang disediakan oleh Vertex AI. Jika sebagian besar model Anda dihosting oleh Vertex AI, hal ini juga memungkinkan Anda menjalankan inferensi terhadap model tersebut menggunakan SQL, tanpa harus mem-build pipeline data secara manual untuk mengambil data ke Vertex AI dan membawa hasil prediksi kembali ke BigQuery.
Untuk mendapatkan petunjuk langkah demi langkah, lihat Membuat prediksi dengan model jarak jauh di Vertex AI.
Inferensi batch dengan model BigQuery di Vertex AI
BigQuery ML memiliki dukungan bawaan untuk prediksi batch, tanpa
perlu menggunakan Vertex AI. Anda juga dapat mendaftarkan
model BigQuery ML ke Model Registry untuk
melakukan prediksi batch di Vertex AI menggunakan
tabel BigQuery sebagai input. Namun, hal ini hanya dapat
dilakukan dengan menggunakan Vertex AI API dan menetapkan
InstanceConfig.instanceType
ke object
.
Prediksi online
Kemampuan inferensi bawaan BigQuery ML dioptimalkan untuk kasus penggunaan skala besar, seperti prediksi batch. Meskipun BigQuery ML memberikan hasil inferensi latensi rendah saat menangani data input kecil, Anda dapat mencapai prediksi online yang lebih cepat melalui integrasi yang lancar dengan Vertex AI.
Anda dapat mengelola model BigQuery ML dalam lingkungan Vertex AI, sehingga tidak perlu mengekspor model dari BigQuery ML sebelum men-deploy-nya sebagai endpoint Vertex AI. Dengan mengelola model dalam Vertex AI, Anda mendapatkan akses ke semua kemampuan MLOps Vertex AI, dan juga ke fitur seperti Vertex AI Feature Store.
Selain itu, Anda memiliki fleksibilitas untuk mengekspor model BigQuery ML ke Cloud Storage agar tersedia di platform hosting model lainnya.
Langkah selanjutnya
- Untuk mengetahui informasi selengkapnya tentang cara menggunakan model Vertex AI untuk membuat teks dan penyematan, lihat Ringkasan AI Generatif.
- Untuk informasi selengkapnya tentang penggunaan Cloud AI API untuk melakukan tugas AI, lihat ringkasan aplikasi AI.
- Untuk mengetahui informasi tentang jenis model yang didukung dan fungsi SQL untuk setiap jenis inferensi, lihat Perjalanan pengguna menyeluruh untuk setiap model.