AI Platform Prediction menghadirkan kemampuan dan fleksibilitas TensorFlow, scikit-learn, dan XGBoost ke cloud. Anda dapat menggunakan AI Platform Prediction untuk menghosting model terlatih sehingga Anda dapat mengiriminya permintaan prediksi.
Memulai
-
Pengantar AI Platform
Ringkasan produk AI Platform.
-
Ringkasan prediksi
Pengantar penggunaan AI Platform Prediction untuk menghosting model machine learning dan menyajikan prediksi.
-
Lingkungan pengembangan
Persyaratan untuk lingkungan pengembangan lokal Anda.
-
Prediksi online versus batch
Ringkasan perbedaan antara prediksi online dan prediksi batch.
-
Memulai: pelatihan dan prediksi dengan TensorFlow Keras
Latih model TensorFlow Keras di Pelatihan AI Platform dan deploy model ke AI Platform Prediction.
-
Memulai: pelatihan dan prediksi dengan TensorFlow Estimator
Latih model Estimator TensorFlow di Pelatihan AI Platform dan deploy model ke AI Platform Prediction.
-
Mulai menggunakan scikit-learn dan XGBoost
Deploy model scikit-learn atau XGBoost untuk menyajikan prediksi.
Alur kerja prediksi
-
Mengekspor model untuk prediksi
Tulis kode pelatihan untuk mengekspor artefak model yang siap untuk AI Platform Prediction.
-
Mengekspor TersimpanModel untuk prediksi
Ekspor TensorFlowSavedModel agar kompatibel dengan AI Platform Prediction.
-
Deployment model
Deploy model machine learning dengan membuat resource model dan versi model.
-
Rutinitas prediksi kustom
Menyesuaikan cara AI Platform Prediction memproses permintaan prediksi.
-
Jenis mesin untuk prediksi online
Konfigurasi jenis virtual machine dan GPU yang digunakan AI Platform Prediction untuk menangani permintaan.
-
Mendapatkan prediksi online
Kirim permintaan ke model machine learning yang di-deploy dan terima prediksi.
-
Mendapatkan prediksi batch
Jalankan prediksi pada instance data dalam jumlah besar menggunakan model TensorFlow.
Penampung kustom untuk prediksi online
-
Memulai: Menayangkan prediksi PyTorch dengan container kustom
Gunakan container kustom untuk men-deploy model machine learning PyTorch yang menyalurkan prediksi online.
-
Persyaratan container kustom
Pelajari persyaratan untuk membuat image container Docker kustom untuk digunakan dengan AI Platform Prediction.
-
Menggunakan penampung kustom
Konfigurasi versi model Anda untuk menggunakan penampung kustom.
Melakukan integrasi dengan alat dan layanan
-
Menggunakan library klien Python
Gunakan Library Klien Google API untuk Python guna mengirim permintaan ke AI Platform Training and Prediction API.
-
Bekerja dengan Cloud Storage
Siapkan Cloud Storage agar berfungsi dengan AI Platform Prediction.
-
Menggunakan {i>What-If Tool<i}
Periksa model yang di-deploy dengan dasbor interaktif.
Pemantauan dan keamanan
-
Model pemantauan
Pantau performa dan perilaku model yang di-deploy.
-
Melihat log audit
Pantau aktivitas admin dan akses data dengan Cloud Audit Logs.
-
Kontrol akses
Ringkasan izin yang diperlukan untuk melakukan berbagai tindakan di AI Platform Training and Prediction API, serta peran IAM yang menyediakan izin ini.
-
Menggunakan akun layanan kustom
Konfigurasi versi model agar menggunakan akun layanan kustom untuk menayangkan prediksi.
-
Menggunakan Kontrol Layanan VPC
Konfigurasikan Kontrol Layanan VPC untuk mengurangi risiko pemindahan data yang tidak sah.
Resource Prediksi AI Platform
-
Project, model, versi, dan tugas
Ringkasan resource yang Anda buat dan gunakan dalam AI Platform.
-
Mengelola model dan tugas
Kelola resource AI Platform yang telah Anda buat.
-
Memberi label pada resource
Atur tugas, model, dan versi model Anda dengan label khusus.
-
Berbagi model
Bagikan akses ke resource AI Platform Prediction Anda dengan pengguna, grup, atau akun layanan lain.
Tutorial
-
Membuat rutinitas prediksi kustom dengan Keras
Deploy model Keras bersama dengan kode pra-pemrosesan dan pascapemrosesan untuk menangani permintaan.
-
Mendapatkan prediksi online dengan XGBoost
Deploy model XGBoost, dan minta prediksi.
-
Mendapatkan prediksi online dengan scikit-learn
Deploy model scikit-learn yang menggunakan pipeline dengan banyak transformer.
-
Prediksi dengan pipeline scikit-learn
Deploy model scikit-learn yang menggunakan pipeline dengan langkah pra-pemrosesan dan langkah klasifikasi.
-
Menggunakan pipeline scikit-learn dengan transformer kustom
Deploy pipeline scikit-learn dengan pra-pemrosesan kustom.
-
Membuat rutinitas prediksi kustom dengan scikit-learn
Deploy model scikit-learn bersama dengan kode pra-pemrosesan dan pascapemrosesan untuk menangani permintaan.
-
Menggunakan scikit-learn pada Kaggle dan AI Platform Prediction
Latih model di Kaggle dan deploy ke AI Platform Prediction.
Versi runtime
AI Explanations
-
Ringkasan Penjelasan AI
Pengantar penggunaan AI Explanations dengan AI Platform Prediction.
-
Mulai menggunakan AI Explanations
Deploy model TensorFlow dan buat permintaan penjelasan.
-
Keterbatasan Penjelasan AI
Pertimbangan yang harus Anda pertimbangkan saat menggunakan AI Explanations.
-
Menggunakan atribusi fitur
Konfigurasikan model machine learning Anda untuk AI Explanations dan minta penjelasan.
-
Menyimpan model TensorFlow
Simpan model TensorFlow 2 dan TensorFlow 1.15 dengan benar untuk AI Explanations.
-
Menyiapkan metadata
Buat file metadata penjelasan yang diperlukan untuk AI Explanations, menggunakan Explainable AI SDK.
-
Memvisualisasikan penjelasan
Visualisasikan penjelasan dengan AI Explanations.
-
Memahami input dan output untuk penjelasan
Temukan TensorFlow input dan output untuk membuat file metadata penjelasan secara manual, sebelum men-deploy model TensorFlow 1.15 yang ada ke AI Explanations.
Evaluasi berkelanjutan
-
Ringkasan evaluasi berkelanjutan
Pengantar evaluasi berkelanjutan.
-
Sebelum memulai evaluasi berkelanjutan
Menyiapkan model machine learning Anda agar kompatibel dengan evaluasi berkelanjutan.
-
Membuat tugas evaluasi
Konfigurasi cara mengevaluasi versi model yang Anda inginkan.
-
Melihat metrik evaluasi
Lihat metrik tentang model Anda yang dihitung dengan evaluasi berkelanjutan.
-
Memperbarui, menjeda, atau menghapus tugas evaluasi
Memperbarui tugas evaluasi berkelanjutan yang sudah ada.