Halaman ini menunjukkan cara mendapatkan prediksi batch dari model terlatih kustom menggunakan Konsol Google Cloud atau Vertex AI API.
Untuk membuat permintaan prediksi batch, tentukan sumber input dan lokasi output, baik Cloud Storage maupun BigQuery, tempat Vertex AI menyimpan hasil prediksi batch.
Batasan dan persyaratan
Pertimbangkan batasan dan persyaratan berikut saat mendapatkan prediksi batch:
- Untuk meminimalkan waktu pemrosesan, lokasi input dan output Anda harus berada di region atau multi-region yang sama. Misalnya, jika input berada di
us-central1
, output dapat berada dius-central1
atauUS
, tetapi tidak dieurope-west4
. Untuk mempelajari lebih lanjut, lihat lokasi Cloud Storage dan lokasi BigQuery. - Input dan output Anda juga harus berada di region atau multi-region yang sama dengan model Anda.
- Model Model Garden tidak didukung.
- Model BigQuery ML bukan model yang dilatih secara kustom. Namun, informasi di halaman ini dapat digunakan untuk mendapatkan prediksi batch dari model BigQuery ML dengan kondisi berikut:
- Model BigQuery ML harus terdaftar di Vertex AI Model Registry.
- Untuk menggunakan tabel BigQuery sebagai input, Anda harus menetapkan
InstanceConfig.instanceType
ke"object"
menggunakan Vertex AI API.
Persyaratan data input
Input untuk permintaan batch menentukan item yang akan dikirim ke model Anda untuk mendapatkan prediksi. Kami mendukung format input berikut:
JSON Lines
Gunakan file JSON Lines untuk menentukan daftar instance input yang akan digunakan untuk membuat prediksi. Simpan file di bucket Cloud Storage.
Contoh 1
Contoh berikut menunjukkan file JSON Lines yang setiap barisnya berisi array:
[1, 2, 3, 4]
[5, 6, 7, 8]
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [1, 2, 3, 4], [5, 6, 7, 8] ]}
Container PyTorch
{"instances": [ { "data": [1, 2, 3, 4] }, { "data": [5, 6, 7, 8] } ]}
Contoh 2
Contoh berikut menunjukkan file JSON Lines yang setiap barisnya berisi sebuah objek.
{ "values": [1, 2, 3, 4], "key": 1 }
{ "values": [5, 6, 7, 8], "key": 2 }
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP. Perhatikan bahwa isi permintaan yang sama dikirim ke semua container.
{"instances": [
{ "values": [1, 2, 3, 4], "key": 1 },
{ "values": [5, 6, 7, 8], "key": 2 }
]}
Contoh 3
Untuk container bawaan PyTorch, pastikan Anda menggabungkan setiap instance dalam
kolom data
seperti yang disyaratkan oleh pengendali default TorchServe; Vertex AI
tidak menggabungkan instance untuk Anda. Contoh:
{ "data": { "values": [1, 2, 3, 4], "key": 1 } }
{ "data": { "values": [5, 6, 7, 8], "key": 2 } }
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
{"instances": [
{ "data": { "values": [1, 2, 3, 4], "key": 1 } },
{ "data": { "values": [5, 6, 7, 8], "key": 2 } }
]}
TFRecord
Simpan instance input dalam format TFRecord. Anda dapat memilih untuk mengompresi file TFRecord dengan Gzip. Simpan file TFRecord dalam bucket Cloud Storage.
Vertex AI membaca setiap instance dalam file TFRecord Anda sebagai biner,
lalu mengenkode base64 instance sebagai objek JSON dengan satu kunci bernama
b64
.
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
Semua container lainnya
{"instances": [ { "b64": "b64EncodedASCIIString" }, { "b64": "b64EncodedASCIIString" } ]}
Container PyTorch
{"instances": [ { "data": {"b64": "b64EncodedASCIIString" } }, { "data": {"b64": "b64EncodedASCIIString" } } ]}
Pastikan container prediksi Anda mengetahui cara men-dekode instance.
CSV
Tentukan satu instance input per baris dalam file CSV. Baris pertama harus berupa baris header. Anda harus menyertakan semua string dalam tanda kutip ganda ("). Vertex AI tidak menerima nilai sel yang berisi baris baru. Nilai yang tidak dikutip dibaca sebagai bilangan floating point.
Contoh berikut menunjukkan file CSV dengan dua instance input:
"input1","input2","input3"
0.1,1.2,"cat1"
4.0,5.0,"cat2"
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [0.1,1.2,"cat1"], [4.0,5.0,"cat2"] ]}
Container PyTorch
{"instances": [ { "data": [0.1,1.2,"cat1"] }, { "data": [4.0,5.0,"cat2"] } ]}
Daftar file
Buat file teks dengan setiap baris berupa Cloud Storage URI ke file. Vertex AI membaca konten setiap file sebagai biner, lalu
mengenkode base64 instance sebagai objek JSON dengan satu kunci bernama b64
.
Jika Anda berencana menggunakan Konsol Google Cloud untuk mendapatkan prediksi batch, tempelkan daftar file Anda langsung ke Konsol Google Cloud. Jika tidak, simpan daftar di bucket Cloud Storage.
Contoh berikut menampilkan daftar file dengan dua instance input:
gs://path/to/image/image1.jpg
gs://path/to/image/image2.jpg
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
Semua container lainnya
{ "instances": [ { "b64": "b64EncodedASCIIString" }, { "b64": "b64EncodedASCIIString" } ]}
Container PyTorch
{ "instances": [ { "data": { "b64": "b64EncodedASCIIString" } }, { "data": { "b64": "b64EncodedASCIIString" } } ]}
Pastikan container prediksi Anda mengetahui cara men-dekode instance.
BigQuery
Tentukan tabel BigQuery sebagai projectId.datasetId.tableId
.
Vertex AI mengubah setiap baris dari tabel ke
instance JSON.
Misalnya, jika tabel Anda berisi data berikut:
Kolom 1 | Kolom 2 | Kolom 3 |
---|---|---|
1.0 | 3.0 | "Cat1" |
2.0 | 4.0 | "Cat2" |
Berikut adalah hal-hal yang dikirim ke container prediksi di isi permintaan HTTP:
Semua container lainnya
{"instances": [ [1.0,3.0,"cat1"], [2.0,4.0,"cat2"] ]}
Container PyTorch
{"instances": [ { "data": [1.0,3.0,"cat1"] }, { "data": [2.0,4.0,"cat2"] } ]}
Berikut cara jenis data BigQuery dikonversi ke JSON:
Jenis BigQuery | Jenis JSON | Nilai contoh |
---|---|---|
String | String | "abc" |
Bilangan Bulat | Bilangan Bulat | 1 |
Float | Float | 1,2 |
Angka | Float | 4925.000000000 |
Boolean | Boolean | benar |
TimeStamp | String | "2019-01-01 23:59:59.999999+00:00" |
Tanggal | String | "2018-12-31" |
Waktu | String | "23:59:59.999999" |
DateTime | String | "2019-01-01T00:00:00" |
Record | Objek | { "A": 1,"B": 2} |
Jenis Berulang | Array[Type] | [1, 2] |
Kumpulan Data Bertingkat | Objek | {"A": {"a": 0}, "B": 1} |
Data partisi
Prediksi batch menggunakan MapReduce untuk membuat shard input ke setiap replika. Untuk menggunakan fitur MapReduce, input harus dapat dipartisi.
Vertex AI secara otomatis mempartisi input BigQuery, daftar file, dan baris JSON.
Vertex AI tidak otomatis mempartisi file CSV karena file tersebut tidak cocok untuk partisi secara alami. Baris dalam file CSV tidak bersifat deskriptif, diketik, dan dapat berisi baris baru. Sebaiknya jangan gunakan input CSV untuk aplikasi yang sensitif terhadap throughput.
Untuk input TFRecord, pastikan Anda mempartisi data secara manual dengan membagi instance menjadi file yang lebih kecil dan meneruskan file ke tugas dengan karakter pengganti (misalnya, gs://my-bucket/*.tfrecord
). Jumlah file harus minimal sama dengan jumlah replika yang ditentukan.
Memfilter dan mengubah data input
Anda dapat memfilter dan mengubah input batch dengan menentukan
instanceConfig
dalam
permintaan
BatchPredictionJob
.
Pemfilteran memungkinkan Anda mengecualikan kolom tertentu yang ada dalam data input dari permintaan prediksi Anda, atau menyertakan hanya subset kolom dari data input dalam permintaan prediksi Anda, tanpa harus melakukan pra-pemrosesan atau pasca-pemrosesan kustom di penampung prediksi. Hal ini berguna saat file data input Anda memiliki kolom tambahan yang tidak diperlukan model, seperti kunci atau data tambahan.
Mentransformasi memungkinkan Anda mengirim instance ke container prediksi dalam format JSON array
atau object
. Lihat instanceType
untuk mengetahui informasi selengkapnya.
Misalnya, jika tabel input Anda berisi data berikut:
customerId | col1 | col2 |
---|---|---|
1001 | 1 | 2 |
1002 | 5 | 6 |
dan tentukan instanceConfig
berikut:
{
"name": "batchJob1",
...
"instanceConfig": {
"excludedFields":["customerId"]
"instanceType":"object"
}
}
Selanjutnya, instance dalam permintaan prediksi Anda akan dikirim sebagai objek JSON, dan kolom customerId
dikecualikan:
{"col1":1,"col2":2}
{"col1":5,"col2":6}
Perhatikan bahwa menentukan instanceConfig
berikut akan memberikan hasil yang sama:
{
"name": "batchJob1",
...
"instanceConfig": {
"includedFields": ["col1","col2"]
"instanceType":"object"
}
}
Untuk demonstrasi tentang cara menggunakan filter fitur, lihat notebook Prediksi batch model kustom dengan pemfilteran fitur.
Meminta prediksi batch
Untuk permintaan prediksi batch, Anda dapat menggunakan Konsol Google Cloud atau Vertex AI API. Bergantung pada jumlah item input yang Anda kirimkan, tugas prediksi batch dapat memerlukan waktu beberapa saat untuk diselesaikan.
Saat Anda meminta prediksi batch, container prediksi akan berjalan sebagai akun layanan kustom yang disediakan pengguna. Operasi baca-tulis, seperti membaca instance prediksi dari sumber data atau menulis hasil prediksi, dilakukan menggunakan agen layanan Vertex AI, yang secara default memiliki akses ke BigQuery dan Cloud Storage.
Konsol Google Cloud
Gunakan Konsol Google Cloud untuk meminta prediksi batch.
- Di Konsol Google Cloud, di bagian Vertex AI, buka halaman Batch Predictions.
Buka halaman Batch predictions
Klik Create untuk membuka jendela New batch prediction.
Di bagian Define your batch prediction, selesaikan langkah-langkah berikut:
Masukkan nama untuk prediksi batch.
Untuk Model name, pilih nama model yang akan digunakan untuk prediksi batch ini.
Untuk Pilih sumber, pilih sumber yang berlaku untuk data input Anda:
- Jika Anda telah memformat input sebagai JSON Line, CSV, atau TFRecord, pilih File on Cloud Storage (JSON Lines, CSV, TFRecord, TFRecord Gzip). Selanjutnya, tentukan file input Anda di kolom Source path.
- Jika Anda menggunakan daftar file sebagai input, pilih Files on Cloud Storage (other) dan tempel daftar file Anda ke kolom berikut.
- Untuk input BigQuery, pilih BigQuery path. Jika memilih BigQuery sebagai input, Anda juga harus memilih BigQuery sebagai output dan kunci enkripsi yang dikelola Google. Kunci enkripsi yang dikelola pelanggan (CMEK) tidak didukung dengan BigQuery sebagai input/output.
Di kolom Destination path, tentukan direktori Cloud Storage tempat Anda ingin Vertex AI menyimpan output prediksi batch.
Anda dapat memilih untuk mencentang Aktifkan atribusi fitur untuk model ini agar mendapatkan atribusi fitur sebagai bagian dari respons prediksi batch. Kemudian, klik Edit untuk mengonfigurasi setelan penjelasan. (Mengedit setelan penjelasan bersifat opsional jika Anda sebelumnya mengonfigurasi setelan penjelasan untuk model, dan jika tidak diwajibkan.)
Tentukan opsi komputasi untuk tugas prediksi batch: Jumlah node komputasi, Jenis mesin, dan (opsional) Jenis akselerator dan Jumlah akselerator.
Opsional: Analisis Pemantauan Model untuk prediksi batch tersedia di Pratinjau. Lihat Prasyarat untuk menambahkan konfigurasi deteksi skew ke tugas prediksi batch Anda.
Klik untuk mengaktifkan opsi Aktifkan pemantauan model untuk prediksi batch ini.
Pilih Sumber data pelatihan. Masukkan jalur data atau lokasi untuk sumber data pelatihan yang Anda pilih.
Opsional: Di bagian Nilai minimum pemberitahuan, tentukan nilai minimum untuk memicu pemberitahuan.
Di bagian Email notifikasi, masukkan satu atau beberapa alamat email yang dipisahkan koma, yang akan menerima pemberitahuan saat model melebihi nilai minimum pemberitahuan.
Opsional: Untuk Notification channels, tambahkan saluran Cloud Monitoring untuk menerima pemberitahuan saat model melebihi nilai minimum pemberitahuan. Anda dapat memilih saluran Cloud Monitoring yang sudah ada atau membuat yang baru dengan mengklik Manage notifikasi channels. Konsol Google Cloud mendukung saluran notifikasi PagerDuty, Slack, dan Pub/Sub.
Klik Create.
API
Gunakan Vertex AI API untuk mengirim permintaan prediksi batch. Pilih tab, bergantung pada alat yang Anda gunakan untuk mendapatkan prediksi batch.
REST
Sebelum menggunakan data permintaan apa pun, lakukan penggantian berikut:
LOCATION_ID: Region tempat Model disimpan dan tugas prediksi batch dijalankan. Misalnya,
us-central1
.PROJECT_ID: Project ID Anda.
BATCH_JOB_NAME: Nama tampilan untuk tugas prediksi batch.
MODEL_ID: ID untuk model yang akan digunakan untuk membuat prediksi.
INPUT_FORMAT: Format data input:
jsonl
,csv
,tf-record
,tf-record-gzip
, ataufile-list
.INPUT_URI: Cloud Storage URI data input Anda. Dapat berisi karakter pengganti.
OUTPUT_DIRECTORY: Cloud Storage URI dari direktori tempat Anda ingin Vertex AI menyimpan output.
MACHINE_TYPE: Resource mesin yang akan digunakan untuk tugas prediksi batch ini.
Anda dapat memilih untuk mengonfigurasi kolom
machineSpec
untuk menggunakan akselerator, tetapi contoh berikut tidak menunjukkan hal ini.BATCH_SIZE: Jumlah instance yang akan dikirim dalam setiap permintaan prediksi; default-nya adalah 64. Meningkatkan ukuran tumpukan dapat menyebabkan throughput yang lebih tinggi, tetapi juga dapat menyebabkan waktu tunggu permintaan habis.
STARTING_REPLICA_COUNT: Jumlah node untuk tugas prediksi batch ini.
Metode HTTP dan URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Isi JSON permintaan:
{ "displayName": "BATCH_JOB_NAME", "model": "projects/PROJECT_ID/locations/LOCATION_ID/models/MODEL_ID", "inputConfig": { "instancesFormat": "INPUT_FORMAT", "gcsSource": { "uris": ["INPUT_URI"], }, }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY", }, }, "dedicatedResources" : { "machineSpec" : { "machineType": MACHINE_TYPE }, "startingReplicaCount": STARTING_REPLICA_COUNT }, "manualBatchTuningParameters": { "batch_size": BATCH_SIZE, } }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Anda akan menerima respons JSON yang mirip dengan yang berikut ini:
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION_ID/batchPredictionJobs/BATCH_JOB_ID", "displayName": "BATCH_JOB_NAME 202005291958", "model": "projects/PROJECT_ID/locations/LOCATION_ID/models/MODEL_ID", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris": [ "INPUT_URI" ] } }, "outputConfig": { "predictionsFormat": "jsonl", "gcsDestination": { "outputUriPrefix": "OUTPUT_DIRECTORY" } }, "state": "JOB_STATE_PENDING", "createTime": "2020-05-30T02:58:44.341643Z", "updateTime": "2020-05-30T02:58:44.341643Z", }
Java
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Java Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Pada contoh berikut, ganti PREDICTIONS_FORMAT dengan jsonl
.
Untuk mempelajari cara mengganti placeholder lain, lihat tab REST & CMD LINE
di bagian ini.
Python
Untuk mempelajari cara menginstal atau mengupdate Vertex AI SDK untuk Python, lihat Menginstal Vertex AI SDK untuk Python. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi Python API.
BigQuery
Contoh REST sebelumnya menggunakan Cloud Storage untuk sumber dan tujuan. Untuk menggunakan BigQuery, lakukan perubahan berikut:
Ubah kolom
inputConfig
menjadi seperti berikut:"inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "bq://SOURCE_PROJECT_ID.SOURCE_DATASET_NAME.SOURCE_TABLE_NAME" } }
Ubah kolom
outputConfig
menjadi seperti berikut:"outputConfig": { "predictionsFormat":"bigquery", "bigqueryDestination":{ "outputUri": "bq://DESTINATION_PROJECT_ID.DESTINATION_DATASET_NAME.DESTINATION_TABLE_NAME" } }
Ganti kode berikut:
SOURCE_PROJECT_ID
: ID project Google Cloud sumberSOURCE_DATASET_NAME
: nama set data BigQuery sumberSOURCE_TABLE_NAME
: nama tabel sumber BigQueryDESTINATION_PROJECT_ID
: ID project Google Cloud tujuanDESTINATION_DATASET_NAME
: nama set data BigQuery tujuanDESTINATION_TABLE_NAME
: nama tabel tujuan BigQuery
Tingkat kepentingan fitur
Jika ingin nilai kepentingan fitur ditampilkan untuk prediksi, tetapkan properti generateExplanation
ke true
. Perhatikan bahwa model perkiraan tidak mendukung nilai penting fitur, sehingga Anda tidak dapat menyertakannya dalam permintaan prediksi batch.
Nilai penting fitur, yang terkadang disebut atribusi fitur, adalah bagian dari Vertex Explainable AI.
Anda hanya dapat menetapkan generateExplanation
ke true
jika telah mengonfigurasi
Model
untuk penjelasan atau jika
Anda menentukan kolom explanationSpec
BatchPredictionJob
.
Pilih jenis mesin dan jumlah replika
Penskalaan horizontal dengan meningkatkan jumlah replika akan meningkatkan throughput secara lebih linear dan dapat diprediksi daripada menggunakan jenis mesin yang lebih besar.
Secara umum, sebaiknya tentukan jenis mesin terkecil untuk tugas Anda dan tingkatkan jumlah replika.
Agar biaya lebih efektif, sebaiknya pilih jumlah replika sehingga tugas prediksi batch Anda akan berjalan minimal selama 10 menit. Hal ini karena Anda ditagih per jam kerja node replika, yang mencakup waktu sekitar 5 menit yang diperlukan untuk memulai setiap replika. Biaya menjadi tidak efisien apabila memproses hanya selama beberapa detik untuk kemudian dimatikan.
Sebagai panduan umum, untuk ribuan instance, sebaiknya gunakan
starting_replica_count
dalam puluhan. Untuk jutaan instance, sebaiknya gunakan starting_replica_count
dalam ratusan. Anda juga dapat menggunakan formula berikut untuk memperkirakan jumlah replika:
N / (T * (60 / Tb))
Dengan keterangan:
- N: Jumlah batch dalam tugas. Misalnya, 1 juta instance / 100 ukuran batch = 10.000 batch.
- T: Perkiraan waktu untuk tugas prediksi batch. Misalnya, 10 menit.
- Tb: Waktu dalam detik yang diperlukan replika untuk memproses satu batch. Misalnya, 1 detik per batch pada jenis mesin 2-core.
Dalam contoh ini, 10.000 batch / (10 menit * (60 / 1 dtk)) mengumpulkan hingga 17 replika.
Tidak seperti prediksi online, tugas prediksi batch tidak diskalakan secara otomatis. Karena semua data input diketahui di awal, sistem akan mempartisi data ke setiap replika saat tugas dimulai. Sistem menggunakan parameter starting_replica_count
. Parameter max_replica_count
diabaikan.
Semua rekomendasi ini merupakan panduan perkiraan. Rekomendasi tersebut belum tentu memberikan throughput yang optimal untuk setiap model. Perkiraan ini tidak memberikan prediksi waktu dan biaya pemrosesan yang tepat. Dan perkiraan tersebut belum tentu mencatat keuntungan biaya-versus-throughput terbaik untuk setiap skenario. Gunakan rekomendasi tersebut sebagai titik awal yang wajar dan sesuaikan seperlunya. Untuk mengukur karakteristik seperti throughput untuk model Anda, jalankan notebook Menemukan jenis mesin yang ideal.
Untuk mesin dengan akselerasi GPU atau TPU
Ikuti panduan sebelumnya (yang juga berlaku untuk model khusus CPU), dengan pertimbangan tambahan berikut:
- Anda mungkin memerlukan lebih banyak CPU dan GPU (misalnya, untuk pra-pemrosesan data).
- Jenis mesin GPU memerlukan waktu lebih lama untuk memulai (10 menit), jadi sebaiknya Anda menargetkan waktu yang lebih lama (misalnya, minimal 20 menit, bukan 10 menit) untuk tugas prediksi batch agar proporsi waktu dan biaya yang dihabiskan terasa wajar untuk menghasilkan prediksi.
Mengambil hasil prediksi batch
Ketika tugas prediksi batch selesai, output dari prediksi akan disimpan di bucket Cloud Storage atau lokasi BigQuery yang Anda tentukan dalam permintaan Anda.
Contoh hasil prediksi batch
Folder output berisi kumpulan file JSON Lines.
Nama filenya adalah
{gcs_path}/prediction.results-{file_number}-of-{number_of_files_generated}
.
Jumlah file bersifat nondeterministik, karena sifat dari
prediksi batch yang didistribusikan.
Setiap baris dalam file terkait dengan instance dari input dan memiliki key-value pair berikut:
prediction
: berisi nilai yang ditampilkan oleh container prediksi.instance
: Untuk daftar file, berisi Cloud Storage URI. Untuk semua format input lainnya, file ini berisi nilai yang dikirim ke penampung prediksi dalam isi permintaan HTTP.
Contoh 1
Jika permintaan HTTP berisi:
{
"instances": [
[1, 2, 3, 4],
[5, 6, 7, 8]
]}
Dan container prediksi akan menampilkan:
{
"predictions": [
[0.1,0.9],
[0.7,0.3]
],
}
Kemudian, file output JSON Lines adalah:
{ "instance": [1, 2, 3, 4], "prediction": [0.1,0.9]}
{ "instance": [5, 6, 7, 8], "prediction": [0.7,0.3]}
Contoh 2
Jika permintaan HTTP berisi:
{
"instances": [
{"values": [1, 2, 3, 4], "key": 1},
{"values": [5, 6, 7, 8], "key": 2}
]}
Dan container prediksi akan menampilkan:
{
"predictions": [
{"result":1},
{"result":0}
],
}
Kemudian, file output JSON Lines adalah:
{ "instance": {"values": [1, 2, 3, 4], "key": 1}, "prediction": {"result":1}}
{ "instance": {"values": [5, 6, 7, 8], "key": 2}, "prediction": {"result":0}}
Menggunakan Explainable AI
Sebaiknya jangan jalankan penjelasan berbasis fitur pada data dalam jumlah besar. Hal ini karena setiap input berpotensi menyebar ke ribuan permintaan berdasarkan kumpulan kemungkinan nilai fitur yang dapat menyebabkan peningkatan waktu dan biaya pemrosesan secara besar-besaran. Secara umum, set data kecil sudah cukup untuk memahami pentingnya fitur.
Prediksi batch tidak mendukung penjelasan berbasis contoh.
Notebook
Langkah selanjutnya
- Pelajari Resource komputasi untuk prediksi.