Halaman ini menjelaskan cara men-deploy model ke AI Platform Prediction untuk mendapatkan prediksi.
Untuk men-deploy model terlatih di AI Platform Prediction, Anda harus:
- Upload model tersimpan Anda ke bucket Cloud Storage.
- Buat resource model AI Platform Prediction.
- Buat resource versi AI Platform Prediction, yang menentukan jalur Cloud Storage ke model tersimpan Anda.
Sebelum memulai
Latih model machine learning Anda dan ikuti panduan mengekspor model untuk prediksi guna membuat artefak model yang dapat di-deploy ke AI Platform Prediction.
Menyimpan model di Cloud Storage
Secara umum, cara termudah adalah menggunakan bucket Cloud Storage khusus dalam project yang sama dengan yang Anda gunakan untuk AI Platform Prediction.
Jika menggunakan bucket di project lain, Anda harus memastikan bahwa akun layanan AI Platform Prediction dapat mengakses model Anda di Cloud Storage. Tanpa izin yang sesuai, permintaan Anda untuk membuat versi model AI Platform Prediction akan gagal. Lihat selengkapnya tentang memberikan izin untuk penyimpanan.
Menyiapkan bucket Cloud Storage
Bagian ini menunjukkan cara membuat bucket baru. Anda dapat menggunakan bucket yang ada, tetapi harus berada di region yang sama dengan tempat Anda berencana menjalankan tugas AI Platform. Selain itu, jika ini bukan bagian dari project yang Anda gunakan untuk menjalankan AI Platform Prediction, Anda harus secara eksplisit memberikan akses ke akun layanan AI Platform Prediction.
-
Tentukan nama untuk bucket baru Anda. Nama harus unik di semua bucket di Cloud Storage.
BUCKET_NAME="YOUR_BUCKET_NAME"
Misalnya, gunakan nama project Anda dengan tambahan
-aiplatform
:PROJECT_ID=$(gcloud config list project --format "value(core.project)") BUCKET_NAME=${PROJECT_ID}-aiplatform
-
Periksa nama bucket yang Anda buat.
echo $BUCKET_NAME
-
Pilih region untuk bucket Anda dan tetapkan variabel lingkungan
REGION
.Gunakan region yang sama dengan tempat Anda berencana menjalankan tugas Prediksi AI Platform. Lihat region yang tersedia untuk layanan AI Platform Prediction.
Misalnya, kode berikut membuat
REGION
dan menetapkannya keus-central1
:REGION=us-central1
-
Buat bucket baru:
gcloud storage buckets create gs://$BUCKET_NAME --location=$REGION
Mengupload model yang diekspor ke Cloud Storage
Contoh berikut menunjukkan cara mengupload berbagai jenis artefak model ke direktori model di Cloud Storage:
TensorFlow SavedModel
SAVED_MODEL_DIR=$(ls ./YOUR_EXPORT_DIR_BASE | tail -1)
gcloud storage cp $SAVED_MODEL_DIR gs://YOUR_BUCKET --recursive
Saat Anda mengekspor SavedModel dari
tf.keras
atau dari estimator
TensorFlow,
SavedModel akan disimpan sebagai subdirektori berstempel waktu dari direktori ekspor dasar yang
Anda pilih, seperti YOUR_EXPORT_DIR_BASE/1487877383942
.
Contoh ini menunjukkan cara mengupload direktori dengan stempel waktu terbaru.
Jika Anda membuat SavedModel dengan cara yang berbeda, model tersebut mungkin berada di lokasi
yang berbeda pada sistem file lokal Anda.
File model scikit-learn atau XGBoost
Bergantung pada cara Anda mengekspor model
yang dilatih, upload file model.joblib
,
model.pkl
, atau model.bst
.
Contoh berikut menunjukkan cara mengupload file yang diekspor oleh
sklearn.externals.joblib
:
gcloud storage cp ./model.joblib gs://YOUR_BUCKET/model.joblib
Contoh berikut menunjukkan cara mengupload file yang diekspor oleh modul pickle
Python:
gcloud storage cp ./model.pkl gs://YOUR_BUCKET/model.pkl
Contoh berikut menunjukkan cara mengupload file yang diekspor oleh
metode save_model
xgboost.Booster
:
gcloud storage cp ./model.bst gs://YOUR_BUCKET/model.bst
Jika Anda men-deploy rutinitas prediksi kustom (beta), upload juga artefak model tambahan ke direktori model Anda.
Ukuran total file direktori model Anda harus 500 MB atau kurang jika Anda menggunakan jenis mesin lama (MLS1) atau 10 GB atau kurang jika Anda menggunakan jenis mesin Compute Engine (N1). Pelajari lebih lanjut jenis mesin untuk prediksi online.
Saat Anda membuat versi model berikutnya, atur model tersebut dengan menempatkan setiap versi ke direktori terpisahnya dalam bucket Cloud Storage Anda.
Mengupload kode kustom
Jika men-deploy pipeline scikit-learn dengan kode kustom atau rutinitas prediksi kustom, Anda juga harus mengupload paket distribusi sumber yang berisi kode kustom Anda. Contoh:
gcloud storage cp dist/my_custom_code-0.1.tar.gz gs://YOUR_BUCKET/my_custom_code-0.1.tar.gz
Anda dapat mengupload tarball ini ke direktori yang sama di Cloud Storage dengan file model, tetapi Anda tidak harus melakukannya. Faktanya, memisahkannya dapat memberikan pengaturan yang lebih baik, terutama jika Anda men-deploy banyak versi model dan kode.
Menguji model Anda dengan prediksi lokal
Anda dapat menggunakan perintah
gcloud ai-platform local predict
untuk menguji cara model menayangkan prediksi sebelum men-deploynya ke
AI Platform Prediction. Perintah ini menggunakan dependensi di lingkungan lokal Anda
untuk melakukan prediksi dan menampilkan hasil dalam format yang sama dengan
yang digunakan
gcloud ai-platform predict
saat melakukan prediksi online. Menguji prediksi secara lokal dapat membantu Anda menemukan error sebelum Anda dikenai biaya untuk permintaan prediksi online.
Untuk argumen --model-dir
, tentukan direktori yang berisi
model machine learning yang diekspor, baik di komputer lokal maupun di
Cloud Storage. Untuk argumen --framework
, tentukan tensorflow
,
scikit-learn
, atau xgboost
. Anda tidak dapat menggunakan
perintah gcloud ai-platform local predict
dengan rutinitas
prediksi kustom.
Contoh berikut menunjukkan cara melakukan prediksi lokal:
gcloud ai-platform local predict --model-dir LOCAL_OR_CLOUD_STORAGE_PATH_TO_MODEL_DIRECTORY/ \
--json-instances LOCAL_PATH_TO_PREDICTION_INPUT.JSON \
--framework NAME_OF_FRAMEWORK
Men-deploy model dan versi
AI Platform Prediction mengatur model terlatih Anda menggunakan resource model dan versi. Model AI Platform Prediction adalah penampung untuk versi model machine learning Anda.
Untuk men-deploy model, Anda membuat resource model di AI Platform Prediction, membuat versi model tersebut, lalu menautkan versi model ke file model yang disimpan di Cloud Storage.
Membuat resource model
AI Platform Prediction menggunakan resource model untuk mengatur berbagai versi model Anda.
Saat ini, Anda harus memutuskan apakah ingin versi model yang termasuk dalam model ini menggunakan endpoint regional atau endpoint global. Pada umumnya, pilih endpoint regional. Jika Anda memerlukan fungsi yang hanya tersedia di jenis mesin lama (MLS1), gunakan endpoint global.
Anda juga harus memutuskan pada saat ini apakah Anda ingin versi model yang termasuk dalam model ini mengekspor log apa pun saat menayangkan prediksi. Contoh berikut tidak mengaktifkan logging. Pelajari cara mengaktifkan logging.
console
Buka halaman Model AI Platform Prediction di konsol Google Cloud:
Klik tombol Model Baru di bagian atas halaman Model. Tindakan ini akan membawa Anda ke halaman Buat model.
Masukkan nama unik untuk model Anda di kolom Model name.
Jika kotak centang Gunakan endpoint regional dipilih, AI Platform Prediction akan menggunakan endpoint regional. Untuk menggunakan endpoint global, hapus centang pada kotak Gunakan endpoint regional.
Dari menu drop-down Region, pilih lokasi untuk node prediksi Anda. Region yang tersedia berbeda-beda, bergantung pada apakah Anda menggunakan endpoint regional atau endpoint global.
Klik Create.
Pastikan Anda telah kembali ke halaman Model, dan model baru Anda muncul dalam daftar.
gcloud
Endpoint regional
Jalankan perintah berikut:
gcloud ai-platform models create MODEL_NAME \
--region=REGION
Ganti kode berikut:
- MODEL_NAME: Nama yang Anda pilih untuk model.
- REGION: Region endpoint regional tempat Anda ingin node prediksi dijalankan. Region ini harus berupa region yang mendukung jenis mesin Compute Engine (N1).
Jika Anda tidak menentukan flag --region
, gcloud CLI akan meminta Anda untuk memilih endpoint regional (atau menggunakan us-central
di endpoint global).
Atau, Anda dapat menetapkan properti ai_platform/region
ke region tertentu untuk memastikan gcloud CLI selalu menggunakan endpoint regional yang sesuai untuk AI Platform Prediction, meskipun Anda tidak menentukan flag --region
. (Konfigurasi ini tidak berlaku
untuk perintah dalam
grup perintah
gcloud ai-platform operations
.)
Endpoint global
Jalankan perintah berikut:
gcloud ai-platform models create MODEL_NAME \
--regions=REGION
Ganti kode berikut:
- MODEL_NAME: Nama yang Anda pilih untuk model.
- REGION: Region di endpoint global tempat Anda ingin node prediksi dijalankan. Region ini harus mendukung jenis mesin lama (MLS1).
Jika Anda tidak menentukan flag --regions
, gcloud CLI akan meminta Anda untuk memilih endpoint regional (atau menggunakan us-central1
di endpoint global).
REST API
Endpoint regional
Format permintaan Anda dengan menempatkan objek model dalam isi permintaan. Minimal, tentukan nama untuk model Anda dengan mengganti MODEL_NAME dalam contoh berikut:
{ "name": "MODEL_NAME" }
Lakukan panggilan REST API ke URL berikut, dengan mengganti PROJECT_ID dengan ID project Google Cloud Anda:
POST https://REGION-ml.googleapis.com/v1/projects/PROJECT_ID/models/
Ganti kode berikut:
REGION: Region endpoint regional tempat men-deploy model Anda. Region ini harus berupa region yang mendukung jenis mesin Compute Engine (N1).
PROJECT_ID: ID project Google Cloud Anda.
Misalnya, Anda dapat membuat permintaan berikut menggunakan perintah
curl
. Perintah ini memberikan otorisasi permintaan menggunakan kredensial yang terkait dengan penginstalan Google Cloud CLI Anda.curl -X POST -H "Content-Type: application/json" \ -d '{"name": "MODEL_NAME"}' \ -H "Authorization: Bearer `gcloud auth print-access-token`" \ "https://REGION-ml.googleapis.com/v1/projects/PROJECT_ID/models"
API akan menampilkan respons yang mirip dengan berikut ini:
{ "name": "projects/PROJECT_ID/models/MODEL_NAME", "regions": [ "REGION" ] }
Endpoint global
Format permintaan Anda dengan menempatkan objek model dalam isi permintaan. Minimal, tentukan nama untuk model Anda dengan mengganti MODEL_NAME dalam contoh berikut, dan tentukan region dengan mengganti REGION dengan region yang mendukung jenis mesin lama (MLS1):
{ "name": "MODEL_NAME", "regions": ["REGION"] }
Lakukan panggilan REST API ke URL berikut, dengan mengganti PROJECT_ID dengan ID project Google Cloud Anda:
POST https://ml.googleapis.com/v1/projects/PROJECT_ID/models/
Misalnya, Anda dapat membuat permintaan berikut menggunakan perintah
curl
. Perintah ini memberikan otorisasi permintaan menggunakan kredensial yang terkait dengan penginstalan Google Cloud CLI Anda.curl -X POST -H "Content-Type: application/json" \ -d '{"name": "MODEL_NAME", "regions": ["REGION"]}' \ -H "Authorization: Bearer `gcloud auth print-access-token`" \ "https://ml.googleapis.com/v1/projects/PROJECT_ID/models"
API akan menampilkan respons yang mirip dengan berikut ini:
{ "name": "projects/PROJECT_ID/models/MODEL_NAME", "regions": [ "REGION" ] }
Lihat API model AI Platform Prediction untuk mengetahui detail selengkapnya.
Membuat versi model
Sekarang Anda siap membuat versi model dengan model terlatih yang sebelumnya diupload ke Cloud Storage. Saat membuat versi, Anda dapat menentukan sejumlah parameter. Daftar berikut menjelaskan parameter umum, yang beberapa di antaranya diperlukan:
name
: harus unik dalam model AI Platform Prediction.deploymentUri
: jalur ke direktori model Anda di Cloud Storage.- Jika Anda men-deploy model TensorFlow, ini adalah direktori SavedModel.
- Jika Anda men-deploy model scikit-learn atau XGBoost,
ini adalah direktori yang berisi file
model.joblib
,model.pkl
, ataumodel.bst
. - Jika Anda men-deploy rutinitas prediksi kustom, ini adalah direktori yang berisi semua artefak model Anda. Ukuran total direktori ini harus 500 MB atau kurang.
framework
:TENSORFLOW
,SCIKIT_LEARN
, atauXGBOOST
. Hapus parameter ini jika Anda men-deploy rutinitas prediksi kustom.runtimeVersion
: Versi runtime berdasarkan dependensi yang diperlukan model Anda. Jika Anda men-deploy model scikit-learn, model XGBoost, atau rutinitas prediksi kustom, versi ini harus setidaknya 1.4. Jika berencana untuk menggunakan versi model untuk prediksi batch, Anda harus menggunakan runtime versi 2.1 atau yang lebih lama.packageUris
(opsional): daftar jalur ke paket distribusi kode kustom (file.tar.gz
) di Cloud Storage. Hanya berikan parameter ini jika Anda men-deploy pipeline scikit-learn dengan kode kustom (beta) atau rutinitas prediksi kustom (beta).predictionClass
(opsional): nama class Predictor dalam formatmodule_name.class_name
. Hanya berikan parameter ini jika Anda men-deploy rutinitas prediksi kustom (beta).serviceAccount
(opsional): Anda dapat menentukan akun layanan untuk digunakan versi model jika mengakses resource Google Cloud saat menayangkan prediksi. Pelajari lebih lanjut cara menentukan akun layanan. Hanya berikan parameter ini jika Anda menggunakan container kustom atau rutinitas prediksi kustom.pythonVersion
: harus ditetapkan ke "3.5" (untuk runtime versi 1.4 hingga 1.14) atau "3.7" (untuk runtime versi 1.15 dan yang lebih baru) agar kompatibel dengan file model yang diekspor menggunakan Python 3. Juga dapat ditetapkan ke "2.7" jika digunakan dengan runtime versi 1.15 atau yang lebih lama.machineType
(opsional): jenis virtual machine yang digunakan AI Platform Prediction untuk node yang menayangkan prediksi. Pelajari jenis mesin lebih lanjut. Jika tidak ditetapkan, nilai ini akan ditetapkan secara default ken1-standard-2
di endpoint regional danmls1-c1-m2
di endpoint global.
Lihat informasi selengkapnya tentang setiap parameter ini, serta parameter tambahan yang kurang umum, di referensi API untuk resource versi.
Selain itu, jika Anda membuat model di endpoint regional, pastikan untuk juga membuat versi di endpoint regional yang sama.
console
Buka halaman Model AI Platform Prediction di konsol Google Cloud:
Di halaman Model, pilih nama resource model yang ingin Anda gunakan untuk membuat versi. Tindakan ini akan mengarahkan Anda ke halaman Detail Model.
Klik tombol Versi Baru di bagian atas halaman Detail Model. Tindakan ini akan mengarahkan Anda ke halaman Buat versi.
Masukkan nama versi Anda di kolom Name. Secara opsional, masukkan deskripsi untuk versi Anda di kolom Description.
Masukkan informasi berikut tentang cara Anda melatih model di kotak dropdown yang sesuai:
- Pilih versi Python yang Anda gunakan untuk melatih model.
- Pilih Framework dan Framework version. Jika Anda men-deploy rutinitas prediksi kustom (beta), pilih "Rutinitas prediksi kustom (BETA)" untuk Framework.
- Pilih Versi runtime ML. Pelajari lebih lanjut versi runtime AI Platform Prediction.
Pilih Jenis mesin untuk menjalankan prediksi online.
Di kolom Model URI, masukkan lokasi bucket Cloud Storage tempat Anda mengupload file model. Anda dapat menggunakan tombol Browse untuk menemukan jalur yang benar.
Pastikan untuk menentukan jalur ke direktori yang berisi file, bukan jalur ke file model itu sendiri. Misalnya, gunakan
gs://your_bucket_name/model-dir/
, bukangs://your_bucket_name/model-dir/saved_model.pb
ataugs://your_bucket_name/model-dir/model.pkl
.Jika Anda men-deploy pipeline scikit-learn dengan kode kustom (beta) atau rutinitas prediksi kustom (beta), berikan jalur Cloud Storage ke paket kode kustom (
.tar.gz
) di bagian Kode kustom dan dependensi. Jika Anda men-deploy rutinitas prediksi kustom, masukkan nama class Predictor di kolom Class prediksi.Pilih opsi Penskalaan untuk deployment prediksi online:
Jika Anda memilih "Penskalaan otomatis", kolom Jumlah minimum node opsional akan ditampilkan. Anda dapat memasukkan jumlah minimum node yang akan terus berjalan setiap saat, saat layanan telah diskalakan.
Jika memilih "Penskalaan manual", Anda harus memasukkan Jumlah node yang ingin terus berjalan setiap saat.
Pelajari perbedaan opsi penskalaan bergantung pada jenis mesin.
Pelajari lebih lanjut harga untuk biaya prediksi.
Untuk menyelesaikan pembuatan versi model, klik Simpan.
gcloud
Tetapkan variabel lingkungan untuk menyimpan jalur ke direktori Cloud Storage tempat biner model Anda berada, nama model, nama versi, dan pilihan framework Anda.
Saat membuat versi dengan gcloud CLI, Anda dapat memberikan nama framework dalam huruf besar dengan garis bawah (misalnya,
SCIKIT_LEARN
) atau dalam huruf kecil dengan tanda hubung (misalnya,scikit-learn
). Kedua opsi tersebut menghasilkan perilaku yang identik.Ganti
[VALUES_IN_BRACKETS]
dengan nilai yang sesuai:MODEL_DIR="gs://your_bucket_name/" VERSION_NAME="[YOUR-VERSION-NAME]" MODEL_NAME="[YOUR-MODEL-NAME]" FRAMEWORK="[YOUR-FRAMEWORK_NAME]"
Untuk pipeline scikit-learn dengan kode kustom (beta), tetapkan variabel tambahan dengan jalur ke tarball kode kustom Anda:
MODEL_DIR="gs://your_bucket_name/" VERSION_NAME="[YOUR-VERSION-NAME]" MODEL_NAME="[YOUR-MODEL-NAME]" FRAMEWORK="scikit-learn" CUSTOM_CODE_PATH="gs://your_bucket_name/my_custom_code-0.1.tar.gz"
Untuk rutinitas prediksi kustom (beta), hapus variabel
FRAMEWORK
dan tetapkan variabel tambahan dengan jalur ke tarball kode kustom dan nama class prediktor Anda:MODEL_DIR="gs://your_bucket_name/" VERSION_NAME="[YOUR-VERSION-NAME]" MODEL_NAME="[YOUR-MODEL-NAME]" CUSTOM_CODE_PATH="gs://your_bucket_name/my_custom_code-0.1.tar.gz" PREDICTOR_CLASS="[MODULE_NAME].[CLASS_NAME]"
Buat versi:
gcloud ai-platform versions create $VERSION_NAME \ --model=$MODEL_NAME \ --origin=$MODEL_DIR \ --runtime-version=2.11 \ --framework=$FRAMEWORK \ --python-version=3.7 \ --region=REGION \ --machine-type=MACHINE_TYPE
Ganti kode berikut:
REGION: Region endpoint regional tempat Anda membuat model. Jika Anda membuat model di endpoint global, hapus tanda
--region
.MACHINE_TYPE: Jenis mesin, yang menentukan resource komputasi yang tersedia untuk node prediksi Anda.
Untuk pipeline scikit-learn dengan kode kustom (beta), gunakan komponen
gcloud beta
dan pastikan untuk menetapkan flag--package-uris
. Untuk men-deploy kode kustom, model Anda harus menggunakan endpoint global.gcloud components install beta gcloud beta ai-platform versions create $VERSION_NAME \ --model=$MODEL_NAME \ --origin=$MODEL_DIR \ --runtime-version=2.11 \ --framework=$FRAMEWORK \ --python-version=3.7 \ --machine-type=mls1-c1-m2 \ --package-uris=$CUSTOM_CODE_PATH
Untuk rutinitas prediksi kustom (beta), gunakan komponen
gcloud beta
, hapus tanda--framework
, dan tetapkan tanda--package-uris
dan--prediction-class
. Untuk men-deploy kode kustom, model Anda harus menggunakan endpoint global.gcloud components install beta gcloud beta ai-platform versions create $VERSION_NAME \ --model=$MODEL_NAME \ --origin=$MODEL_DIR \ --runtime-version=2.11 \ --python-version=3.7 \ --machine-type=mls1-c1-m2 \ --package-uris=$CUSTOM_CODE_PATH \ --prediction-class=$PREDICTOR_CLASS
Pembuatan versi memerlukan waktu beberapa menit. Setelah siap, Anda akan melihat output berikut:
Creating version (this might take a few minutes)......done.
Dapatkan informasi tentang versi baru Anda:
gcloud ai-platform versions describe $VERSION_NAME \ --model=$MODEL_NAME
Anda akan melihat output yang serupa dengan ini:
createTime: '2018-02-28T16:30:45Z' deploymentUri: gs://your_bucket_name framework: [YOUR-FRAMEWORK-NAME] machineType: mls1-c1-m2 name: projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME] pythonVersion: '3.7' runtimeVersion: '2.11' state: READY
REST API
Format isi permintaan Anda agar berisi objek versi. Contoh ini menentukan versi
name
,deploymentUri
,runtimeVersion
,framework
, danmachineType
. Ganti[VALUES_IN_BRACKETS]
dengan nilai yang sesuai:{ "name": "[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name/", "runtimeVersion": "2.11", "framework": "[YOUR_FRAMEWORK_NAME]", "pythonVersion": "3.7", "machineType": "[YOUR_MACHINE_TYPE]" }
Lakukan panggilan REST API ke jalur berikut, dengan mengganti
[VALUES_IN_BRACKETS]
dengan nilai yang sesuai:POST https://REGION-ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions
Ganti REGION dengan region endpoint regional tempat Anda membuat model. Jika Anda membuat model di endpoint global, gunakan
ml.googleapis.com
.Misalnya, Anda dapat membuat permintaan berikut menggunakan perintah
curl
:curl -X POST -H "Content-Type: application/json" \ -d '{"name": "[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name/", "runtimeVersion": "2.11", "framework": "[YOUR_FRAMEWORK_NAME]", "pythonVersion": "3.7", "machineType": "[YOUR_MACHINE_TYPE]"}' \ -H "Authorization: Bearer `gcloud auth print-access-token`" \ "https://REGION-ml.googleapis.com/v1/projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions"
Pembuatan versi memerlukan waktu beberapa menit. Jika sudah siap, Anda akan melihat output yang mirip dengan ini:
{ "name": "projects/[YOUR-PROJECT-ID]/operations/create_[YOUR-MODEL-NAME]_[YOUR-VERSION-NAME]-[TIMESTAMP]", "metadata": { "@type": "type.googleapis.com/google.cloud.ml.v1.OperationMetadata", "createTime": "2018-07-07T02:51:50Z", "operationType": "CREATE_VERSION", "modelName": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]", "version": { "name": "projects/[YOUR-PROJECT-ID]/models/[YOUR-MODEL-NAME]/versions/[YOUR-VERSION-NAME]", "deploymentUri": "gs://your_bucket_name", "createTime": "2018-07-07T02:51:49Z", "runtimeVersion": "2.11", "framework": "[YOUR_FRAMEWORK_NAME]", "machineType": "[YOUR_MACHINE_TYPE]", "pythonVersion": "3.7" } } }