Panduan ini menjelaskan cara mengimpor model ke Model Registry. Setelah diimpor, model Anda akan terlihat di Model Registry. Dari Model Registry, Anda dapat men-deploy model yang diimpor ke endpoint dan menjalankan prediksi.
Peran yang diperlukan
Guna mendapatkan izin yang Anda perlukan untuk mengimpor model, minta administrator Anda untuk memberi Anda peran IAM Vertex AI User (roles/aiplatform.user
) pada proyek tersebut.
Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses.
Anda mungkin juga bisa mendapatkan izin yang diperlukan melalui peran khusus atau peran yang telah ditetapkan lainnya.
Container kustom atau bawaan
Saat mengimpor model, Anda mengaitkannya dengan container agar Vertex AI dapat menjalankan permintaan prediksi. Anda dapat menggunakan container bawaan yang disediakan oleh Vertex AI, atau menggunakan container kustom sendiri yang Anda build dan kirim ke Artifact Registry.
Anda dapat menggunakan container bawaan jika model Anda memenuhi persyaratan berikut:
- Dilatih di Python 3.7 atau yang lebih baru
- Dilatih menggunakan TensorFlow, PyTorch, scikit-learn, atau XGBoost
- Diekspor untuk memenuhi persyaratan khusus framework untuk salah satu container prediksi bawaan
Jika Anda mengimpor model AutoML tabulasi yang sebelumnya diekspor, Anda harus menggunakan container kustom khusus yang disediakan oleh Vertex AI.
Jika tidak, buat container kustom baru, atau gunakan container kustom yang sudah ada dan Anda miliki di Artifact Registry.
Mengupload artefak model ke Cloud Storage
Anda harus menyimpan artefak model Anda di bucket Cloud Storage, dimana region bucketnya cocok dengan endpoint regional yang Anda gunakan.
Jika bucket Cloud Storage Anda berada di project Google Cloud lain, Anda perlu memberikan akses kepada Vertex AI untuk membaca artefak model Anda.
Jika Anda menggunakan container bawaan, pastikan artefak model Anda memiliki nama file yang sama persis dengan contoh berikut:
- TensorFlow SavedModel:
saved_model.pb
- PyTorch:
model.mar
- scikit-learn:
model.joblib
ataumodel.pkl
- XGBoost:
model.bst
,model.joblib
, ataumodel.pkl
Pelajari lebih lanjut cara mengekspor artefak model untuk prediksi.
Mengimpor model menggunakan Konsol Google Cloud
Cara mengimpor model menggunakan Konsol Google Cloud:
Di Konsol Google Cloud, buka halaman Model Vertex AI.
Klik Import.
Pilih Import as new model untuk mengimpor model baru.
Pilih Import as new version untuk mengimpor model sebagai versi dari model yang sudah ada. Untuk mempelajari pembuatan versi model lebih lanjut, lihat Pembuatan versi model.
Nama dan region: Masukkan nama untuk model Anda. Pilih region yang cocok dengan region bucket Anda dan endpoint regional Vertex AI yang Anda gunakan. Klik Continue.
Jika memperluas Advanced options, Anda dapat memutuskan untuk menambahkan kunci enkripsi yang dikelola pelanggan atau tidak.
Bergantung pada jenis container yang Anda gunakan, pilih tab yang sesuai di bawah.
Container bawaan
Pilih Import model artifacts into a new prebuilt container.
Pilih Model framework dan Model framework version yang Anda gunakan untuk melatih model baru.
Jika Anda ingin menggunakan GPU untuk menyalurkan prediksi, tetapkan Accelerator type ke GPU.
Anda dapat memilih jenis GPU nanti saat men-deploy model ke endpoint.
Tentukan jalur Cloud Storage ke direktori yang berisi artefak model Anda.
Misalnya,
gs://BUCKET_NAME/models/
.Biarkan Predict schemata kosong.
Untuk mengimpor model Anda tanpa setelan Vertex Explainable AI, klik Import.
Setelah impor selesai, model Anda akan muncul di halaman Models.
Jika tidak, lanjutkan mengonfigurasi model Anda dengan memasukkan setelan penjelasan di tab Explainability. Pelajari Setelan penjelasan lebih lanjut.
Container kustom
Pilih Import an existing custom container.
Menetapkan URI image container.
Jika ingin menyediakan artefak model selain image container, tentukan jalur Cloud Storage ke direktori yang berisi artefak model Anda.
Misalnya,
gs://BUCKET_NAME/models/
.Tentukan nilai untuk kolom lainnya.
Pelajari kolom opsional ini lebih lanjut.
Untuk mengimpor model Anda tanpa setelan Vertex Explainable AI, klik Import.
Setelah impor selesai, model Anda akan muncul di halaman Models.
Jika tidak, lanjutkan mengonfigurasi model Anda dengan memasukkan setelan penjelasan di tab Explainability. Pelajari Setelan penjelasan lebih lanjut.
Container tabulasi AutoML
Pilih Import an existing custom container.
Di kolom Container image, masukkan
MULTI_REGION-docker.pkg.dev/vertex-ai/automl-tabular/prediction-server-v1:latest
.Ganti
MULTI_REGION
denganus
,europe
, atauasia
untuk memilih repositori Docker mana yang ingin Anda ambil image Dockernya. Setiap repositori menyediakan image Docker yang sama, tetapi memilih multi-region Artifact Registry yang terdekat dengan mesin tempat Anda menjalankan Docker dapat mengurangi latensi.Di kolom Package location, tentukan jalur Cloud Storage ke direktori yang berisi artefak model Anda.
Jalur tersebut terlihat mirip dengan contoh berikut:
gs://BUCKET_NAME/models-MODEL_ID/tf-saved-model/TIMESTAMP/
Biarkan kolom lain kosong.
Klik Import.
Setelah impor selesai, model Anda akan muncul di halaman Models. Anda dapat menggunakan model ini seperti model tabulasi AutoML lainnya, kecuali model tabulasi AutoML yang diimpor tidak mendukung Vertex Explainable AI.
Mengimpor model secara terprogram
Contoh berikut menunjukkan cara mengimpor model menggunakan berbagai alat:
gcloud
Contoh berikut menggunakan perintah gcloud ai models upload
:
gcloud ai models upload \
--region=LOCATION \
--display-name=MODEL_NAME \
--container-image-uri=IMAGE_URI \
--artifact-uri=PATH_TO_MODEL_ARTIFACT_DIRECTORY
Ganti kode berikut:
- LOCATION_ID: Region tempat Anda menggunakan Vertex AI.
-
MODEL_NAME: Nama tampilan untuk
Model
. -
IMAGE_URI: URI image container yang akan digunakan untuk menampilkan prediksi. Contoh,
us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
. Gunakan container bawaan atau container kustom. -
PATH_TO_MODEL_ARTIFACT_DIRECTORY: Cloud Storage URI (dimulai dengan
gs://
) dari direktori di Cloud Storage yang berisi artefak model Anda.
Contoh sebelumnya menunjukkan semua flag yang diperlukan untuk mengimpor sebagian besar model. Jika tidak menggunakan container bawaan untuk prediksi, Anda mungkin perlu menentukan beberapa tanda opsional tambahan agar Vertex AI dapat menggunakan image container Anda. Tanda ini, yang dimulai dengan --container-
, sesuai dengan kolom containerSpec
Model
Anda.
REST
Gunakan contoh kode berikut untuk mengupload model menggunakan metode upload
dari resource model
.
Sebelum menggunakan salah satu data permintaan, buat pengganti berikut:
- LOCATION_ID: Region tempat Anda menggunakan Vertex AI.
- PROJECT_ID: Project ID Anda.
-
MODEL_NAME: Nama tampilan untuk
Model
. - MODEL_DESCRIPTION: Opsional. Deskripsi model.
-
IMAGE_URI: URI image container yang akan digunakan untuk menampilkan prediksi. Contoh,
us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-1:latest
. Gunakan container bawaan atau container kustom. -
PATH_TO_MODEL_ARTIFACT_DIRECTORY: Cloud Storage URI (dimulai dengan
gs://
) dari direktori di Cloud Storage yang berisi artefak model Anda. Variabel ini dan kolomartifactUri
bersifat opsional jika Anda menggunakan container kustom. labels
: Opsional. Kumpulan key-value pair apa pun untuk mengatur model Anda. Contoh:- "env": "prod"
- "tier": "backend"
- Tentukan LABEL_NAME dan LABEL_VALUE untuk setiap label yang ingin Anda terapkan ke pipeline pelatihan ini.
Metode HTTP dan URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/models:upload
Isi JSON permintaan:
{ "model": { "displayName": "MODEL_NAME", "predictSchemata": {}, "containerSpec": { "imageUri": "IMAGE_URI" }, "artifactUri": "PATH_TO_MODEL_ARTIFACT_DIRECTORY", "labels": { "LABEL_NAME_1": "LABEL_VALUE_1", "LABEL_NAME_2": "LABEL_VALUE_2" } } }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/models:upload"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/models:upload" | Select-Object -Expand Content
Java
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Java Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Node.js
Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Node.js di Panduan memulai Vertex AI menggunakan library klien. Untuk mengetahui informasi selengkapnya, lihat Dokumentasi referensi API Node.js Vertex AI.
Untuk melakukan autentikasi ke Vertex AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Python
Untuk mempelajari cara menginstal atau mengupdate Vertex AI SDK untuk Python, lihat Menginstal Vertex AI SDK untuk Python. Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi Python API.
Untuk mengimpor model dengan setelan Vertex Explainable AI yang telah diaktifkan, lihat Contoh impor model Vertex Explainable AI.
Mendapatkan status operasi
Beberapa permintaan memulai operasi yang berjalan lama dan memerlukan waktu beberapa saat untuk diselesaikan. Permintaan ini menampilkan nama operasi, yang dapat Anda gunakan untuk melihat status operasi atau membatalkan operasi. Vertex AI menyediakan metode helper untuk melakukan panggilan terhadap operasi yang berjalan lama. Untuk mengetahui informasi selengkapnya, lihat Bekerja dengan operasi yang berjalan lama.
Batasan
- Ukuran model maksimum yang didukung adalah 10 GiB.
Langkah selanjutnya
- Deploy model Anda ke endpoint, secara terprogram atau dengan menggunakan Konsol Google Cloud.