Vertex AI untuk pengguna AI Platform

Vertex AI menyatukan AI Platform dan AutoML ke dalam satu antarmuka. Halaman ini membandingkan Vertex AI dan AI Platform, untuk pengguna yang sudah terbiasa dengan AI Platform.

Pelatihan kustom

Dengan Vertex AI, Anda dapat melatih model dengan AutoML, atau melakukan pelatihan kustom, yang merupakan alur kerja yang mirip seperti AI Platform Training.

Tugas AI Platform Training Vertex AI
Pilih versi framework machine learning yang akan digunakan Pengguna Konsol Google Cloud menetapkan nama framework dan versi framework.
Versi runtime - Saat mengirimkan tugas pelatihan, tentukan jumlah versi runtime yang menyertakan framework dan versi framework yang Anda inginkan. Container bawaan - Saat mengirim tugas pelatihan kustom, tentukan URI Artifact Registry dari container bawaan yang sesuai dengan framework dan versi framework Anda.
Mengirim tugas pelatihan menggunakan container kustom Bangun container kustom Anda sendiri, hosting container tersebut di Artifact Registry, lalu gunakan untuk menjalankan aplikasi pelatihan Anda.
Menetapkan region Google Cloud yang akan digunakan Tentukan nama region saat mengirimkan tugas pelatihan ke endpoint global (ml.googleapis.com). Kirim tugas pelatihan kustom Anda ke endpoint regional, seperti us-central1-aiplatform.googleapis.com. Tidak ada endpoint global. Beberapa wilayah yang tersedia di AI Platform tidak tersedia di Vertex AI. Lihat daftar region yang didukung di halaman Lokasi.
Menentukan konfigurasi mesin untuk pelatihan terdistribusi Tentukan konfigurasi yang diberi nama berdasarkan peran tertentu dari cluster pelatihan (masterConfig, workerConfig, parameterServerConfig, dan evaluatorConfig). Konfigurasinya berupa daftar generik — tentukan konfigurasi mesin di CustomJobSpec.workerPoolSpecs[].
Mengirim tugas pelatihan menggunakan paket Python Kolom yang terkait dengan paket Python Anda berada di tingkat teratas dalam TrainingInput. Kolom yang terkait dengan paket Python Anda diatur dalam pythonPackageSpec.
Menentukan jenis mesin
Mengirim tugas penyesuaian hyperparameter Kirim tugas pelatihan dengan konfigurasi hyperparameters. Baik tugas pelatihan dikirim dengan atau tanpa penyesuaian hyperparameter, tugas tersebut akan membuat resource API TrainingJob. Kirim tugas penyesuaian hyperparameter dengan konfigurasi studySpec. Tindakan ini akan membuat resource API tingkat teratas (HyperparameterTuningJob). Tugas pelatihan kustom yang dikirimkan tanpa penyesuaian hyperparameter akan membuat resource API CustomJob tingkat teratas.
Membuat pipeline pelatihan untuk melakukan orkestrasi tugas pelatihan dengan operasi lain Tidak ada resource API bawaan untuk orkestrasi; gunakan AI Platform Pipelines, Kubeflow, atau alat orkestrasi lainnya. Buat resource TrainingPipeline untuk melakukan orkestrasi tugas pelatihan dengan deployment model.

Prediksi

Tugas AI Platform Prediction Vertex AI
Pilih versi framework machine learning yang akan digunakan Pengguna Konsol Google Cloud menetapkan nama framework dan versi framework.
Versi runtime - Saat men-deploy model, tentukan jumlah versi runtime yang menyertakan framework dan versi framework yang diinginkan. Container bawaan - Saat men-deploy model, tentukan URI Artifact Registry dari container bawaan yang sesuai dengan framework dan versi framework Anda. Gunakan opsi multiregional yang cocok dengan endpoint regional Anda — misalnya, us-docker.pkg.dev untuk endpoint us-central1.
Menjalankan kode kustom dengan prediksi Menggunakan rutinitas prediksi kustom. Gunakan rutinitas prediksi kustom di Vertex AI.
Menetapkan region Google Cloud yang akan digunakan Tentukan nama region saat membuat model di endpoint API global (ml.googleapis.com). Buat model Anda di endpoint regional, seperti us-central1-aiplatform.googleapis.com. Tidak ada endpoint global. Beberapa wilayah yang tersedia di AI Platform tidak tersedia di Vertex AI. Lihat daftar region yang didukung di halaman Lokasi.
Menyimpan artefak model Artefak model disimpan di Cloud Storage. Tidak ada resource API yang terkait untuk artefak model. Penyimpanan model terkelola tersedia untuk artefak model, dan terkait dengan resource Model.
Anda masih dapat men-deploy model yang disimpan di Cloud Storage tanpa menggunakan set data yang dikelola Vertex AI.
Deployment model Anda men-deploy model secara langsung agar tersedia untuk prediksi online. Anda membuat objek Endpoint, yang menyediakan resource untuk menampilkan prediksi online. Kemudian, deploy model ke endpoint. Untuk meminta prediksi, panggil metode predict().
Meminta prediksi batch Anda dapat meminta prediksi batch pada model yang disimpan di Cloud Storage, dan menentukan versi runtime dalam permintaan Anda. Atau, Anda dapat meminta prediksi batch pada model yang di-deploy, dan menggunakan versi runtime yang Anda tentukan selama deployment model. Anda mengupload model ke Vertex AI, lalu menentukan container bawaan atau container kustom untuk menampilkan prediksi.
Permintaan prediksi online Struktur JSON menyertakan daftar instance. Struktur JSON mencakup daftar instance dan kolom untuk parameter.
Menentukan jenis mesin Tentukan semua jenis mesin yang tersedia saat membuat versi. Jenis mesin prediksi online lama dari AI Platform (MLS1) tidak didukung. Hanya jenis mesin Compute Engine yang tersedia.
Men-deploy model Buat resource model, lalu buat resource versi. Buat resource model, buat resource endpoint, lalu deploy model ke endpoint. Tentukan pemisahan traffic di endpoint.

Vertex Explainable AI

Anda bisa mendapatkan atribusi fitur untuk model tabel dan gambar di AI Explanations untuk AI Platform dan Vertex Explainable AI.

Tugas AI Explanations untuk AI Platform Vertex Explainable AI
Mendapatkan atribusi fitur untuk model tabular Gunakan Sampled Shapley atau gradien terintegrasi guna mendapatkan atribusi fitur untuk model tabular.
Mendapatkan atribusi fitur untuk model gambar Gunakan gradien terintegrasi atau XRAI guna mendapatkan atribusi fitur untuk model gambar.