Resource BatchPredictionJob
memungkinkan Anda menjalankan permintaan prediksi
asinkron. Minta prediksi batch langsung dari resource
model
. Anda tidak perlu men-deploy model ke endpoint
. Untuk jenis data
yang mendukung prediksi batch dan online, Anda dapat menggunakan prediksi batch.
Ini berguna jika Anda tidak memerlukan respons langsung dan ingin memproses
data yang terakumulasi menggunakan satu permintaan.
Untuk membuat prediksi batch, tentukan sumber input dan lokasi output
agar Vertex AI dapat menyimpan hasil prediksi. Input dan output
bergantung pada jenis model
yang Anda gunakan. Misalnya, prediksi batch untuk jenis model gambar AutoML memerlukan file JSON Lines input dan nama bucket Cloud Storage untuk menyimpan output.
Untuk informasi lebih lanjut tentang prediksi batch,
lihat Mendapatkan prediksi batch.
Anda dapat menggunakan komponen ModelBatchPredictOp
untuk mengakses resource ini melalui Vertex AI Pipelines.
Referensi API
- Untuk referensi komponen, lihat referensi Google Cloud Pipeline Components SDK untuk komponen prediksi Batch.
- Untuk referensi API Vertex AI, lihat halaman resource
BatchPredictionJob
.
Tutorial
Histori versi dan catatan rilis
Untuk mempelajari lebih lanjut histori versi dan perubahan pada Google Cloud Pipeline Components SDK, lihat Catatan Rilis Google Cloud Pipeline Components SDK.
Kontak dukungan teknis
Jika ada pertanyaan, hubungi kubeflow-pipelines-components@google.com.