AI Platform Prediction menghadirkan kekuatan dan fleksibilitas TensorFlow, scikit-learn, dan XGBoost ke cloud. Anda dapat menggunakan AI Platform Prediction untuk menghosting model terlatih sehingga Anda dapat mengirim permintaan prediksi ke model tersebut.
Memulai
-
Pengantar AI Platform
Ringkasan produk AI Platform.
-
Ringkasan prediksi
Pengantar penggunaan AI Platform Prediction untuk menghosting model machine learning dan menayangkan prediksi.
-
Lingkungan pengembangan
Persyaratan untuk lingkungan pengembangan lokal Anda.
-
Prediksi online versus batch
Ringkasan perbedaan antara prediksi online dan batch.
-
Memulai: pelatihan dan prediksi dengan TensorFlow Keras
Latih model TensorFlow Keras di AI Platform Training dan deploy model ke AI Platform Prediction.
-
Memulai: pelatihan dan prediksi dengan TensorFlow Estimator
Latih model Estimator TensorFlow di AI Platform Training dan deploy model ke AI Platform Prediction.
-
Mulai menggunakan scikit-learn dan XGBoost
Men-deploy model scikit-learn atau XGBoost untuk menayangkan prediksi.
Alur kerja prediksi
-
Mengekspor model untuk prediksi
Tulis kode pelatihan untuk mengekspor artefak model yang siap untuk AI Platform Prediction.
-
Mengekspor SavedModel untuk prediksi
Mengekspor SavedModel TensorFlow agar kompatibel dengan AI Platform Prediction.
-
Deployment model
Men-deploy model machine learning dengan membuat resource model dan versi model.
-
Rutinitas prediksi kustom
Menyesuaikan cara AI Platform Prediction memproses permintaan prediksi.
-
Jenis mesin untuk prediksi online
Konfigurasikan jenis mesin virtual dan GPU yang digunakan AI Platform Prediction untuk menangani permintaan.
-
Mendapatkan prediksi online
Mengirim permintaan ke model machine learning yang di-deploy dan menerima prediksi.
-
Mendapatkan prediksi batch
Lakukan prediksi pada instance data dalam volume tinggi menggunakan model TensorFlow.
Container kustom untuk prediksi online
-
Memulai: Menayangkan prediksi PyTorch dengan penampung kustom
Gunakan penampung kustom untuk men-deploy model machine learning PyTorch yang menayangkan prediksi online.
-
Persyaratan container kustom
Pelajari persyaratan untuk membuat image container Docker kustom yang akan digunakan dengan AI Platform Prediction.
-
Menggunakan penampung kustom
Konfigurasikan versi model Anda untuk menggunakan penampung kustom.
Mengintegrasikan dengan alat dan layanan
-
Menggunakan library klien Python
Gunakan Library Klien Google API untuk Python guna mengirim permintaan ke Training API dan Prediction API AI Platform.
-
Bekerja dengan Cloud Storage
Siapkan Cloud Storage agar dapat berfungsi dengan AI Platform Prediction.
-
Menggunakan Alat Simulasi
Periksa model yang di-deploy dengan dasbor interaktif.
Pemantauan dan keamanan
-
Pemantauan model
Memantau performa dan perilaku model yang di-deploy.
-
Melihat log audit
Pantau aktivitas admin dan akses data dengan Cloud Audit Logs.
-
Kontrol akses
Ringkasan izin yang diperlukan untuk melakukan berbagai tindakan di AI Platform Training and Prediction API, serta peran IAM yang memberikan izin ini.
-
Menggunakan akun layanan kustom
Konfigurasikan versi model untuk menggunakan akun layanan kustom untuk menayangkan prediksi.
-
Menggunakan Kontrol Layanan VPC
Konfigurasikan Kontrol Layanan VPC untuk mengurangi risiko pemindahan data yang tidak sah.
Resource AI Platform Prediction
-
Project, model, versi, dan tugas
Ringkasan resource yang Anda buat dan gunakan di AI Platform.
-
Mengelola model dan tugas
Mengelola resource AI Platform yang telah Anda buat.
-
Memberi label pada resource
Atur tugas, model, dan versi model Anda dengan label kustom.
-
Membagikan model
Membagikan akses ke resource AI Platform Prediction dengan pengguna, grup, atau akun layanan lainnya.
Tutorial
-
Membuat rutinitas prediksi kustom dengan Keras
Men-deploy model Keras bersama dengan kode prapemrosesan dan pascapemrosesan untuk menangani permintaan.
-
Mendapatkan prediksi online dengan XGBoost
Men-deploy model XGBoost, dan meminta prediksi.
-
Mendapatkan prediksi online dengan scikit-learn
Men-deploy model scikit-learn yang menggunakan pipeline dengan banyak transformer.
-
Prediksi dengan pipeline scikit-learn
Men-deploy model scikit-learn yang menggunakan pipeline dengan langkah prapemrosesan dan langkah klasifikasi.
-
Menggunakan pipeline scikit-learn dengan transformer kustom
Men-deploy pipeline scikit-learn dengan pra-pemrosesan kustom.
-
Membuat rutinitas prediksi kustom dengan scikit-learn
Men-deploy model scikit-learn bersama dengan kode prapemrosesan dan pascapemrosesan untuk menangani permintaan.
-
Menggunakan scikit-learn di Kaggle dan AI Platform Prediction
Latih model di Kaggle dan deploy ke AI Platform Prediction.
Versi runtime
AI Explanations
-
Ringkasan AI Explanations
Pengantar penggunaan AI Explanations dengan AI Platform Prediction.
-
Memulai AI Explanations
Men-deploy model TensorFlow dan membuat permintaan penjelasan.
-
Batasan AI Explanations
Pertimbangan yang harus Anda pertimbangkan saat menggunakan Penjelasan AI.
-
Menggunakan atribusi fitur
Konfigurasikan model machine learning Anda untuk Penjelasan AI dan minta penjelasan.
-
Menyimpan model TensorFlow
Simpan model TensorFlow 2 dan TensorFlow 1.15 dengan benar untuk Penjelasan AI.
-
Menyiapkan metadata
Buat file metadata penjelasan yang diperlukan untuk Penjelasan AI, menggunakan Explainable AI SDK.
-
Memvisualisasikan penjelasan
Visualisasikan penjelasan dengan AI Explanations.
-
Memahami input dan output untuk penjelasan
Temukan tensor input dan output untuk membuat file metadata penjelasan secara manual, sebelum men-deploy model TensorFlow 1.15 yang ada ke Penjelasan AI.
Evaluasi berkelanjutan
-
Ringkasan evaluasi berkelanjutan
Pengantar evaluasi berkelanjutan.
-
Sebelum Anda memulai evaluasi berkelanjutan
Menyiapkan model machine learning agar kompatibel dengan evaluasi berkelanjutan.
-
Membuat tugas evaluasi
Konfigurasikan cara Anda ingin versi model Anda dievaluasi.
-
Melihat metrik evaluasi
Lihat metrik tentang model Anda yang dihitung oleh evaluasi berkelanjutan.
-
Memperbarui, menjeda, atau menghapus tugas evaluasi
Perbarui tugas evaluasi berkelanjutan yang ada.