Halaman ini menjelaskan integrasi TensorFlow Vertex AI dan menyediakan resource yang menunjukkan cara menggunakan TensorFlow di Vertex AI. Integrasi TensorFlow Vertex AI memudahkan Anda melatih, men-deploy, dan mengorkestrasi model TensorFlow dalam produksi.
Menjalankan kode di notebook
Vertex AI menyediakan dua opsi untuk menjalankan kode Anda di notebook, Colab Enterprise, dan Vertex AI Workbench. Untuk mempelajari opsi ini lebih lanjut, lihat memilih solusi notebook.
Container bawaan untuk pelatihan
Vertex AI menyediakan image container Docker bawaan untuk pelatihan model. Container ini diatur menurut framework machine learning dan versi framework serta menyertakan dependensi umum yang mungkin ingin Anda gunakan dalam kode pelatihan.
Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.
Pelatihan terdistribusi
Anda dapat menjalankan pelatihan model TensorFlow terdistribusi di Vertex AI. Untuk pelatihan multi-pekerja, Anda dapat menggunakan Reduction Server untuk mengoptimalkan performa lebih baik lagi untuk operasi kolektif dengan pengurangan penuh. Untuk mempelajari pelatihan terdistribusi di Vertex AI lebih lanjut, lihat Pelatihan terdistribusi.
Container bawaan untuk prediksi
Mirip dengan container bawaan untuk pelatihan, Vertex AI menyediakan image container bawaan untuk menyajikan prediksi dan penjelasan dari model TensorFlow yang Anda buat di dalam atau di luar Vertex AI. Gambar ini menyediakan server prediksi HTTP yang dapat Anda gunakan untuk menyajikan prediksi dengan sedikit konfigurasi.
Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.
Runtime TensorFlow yang dioptimalkan
Runtime TensorFlow yang dioptimalkan menggunakan pengoptimalan model dan teknologi Google eksklusif untuk meningkatkan kecepatan dan menurunkan biaya prediksi dibandingkan dengan container prediksi bawaan standar Vertex AI untuk TensorFlow.
Integrasi TensorFlow Profiler
Latih model lebih murah dan lebih cepat dengan memantau dan mengoptimalkan performa tugas pelatihan Anda menggunakan integrasi TensorFlow Profiler Vertex AI. TensorFlow Profiler membantu Anda memahami penggunaan resource operasi pelatihan sehingga Anda dapat mengidentifikasi dan menghilangkan hambatan performa.
Untuk mempelajari Vertex AI TensorFlow Profiler lebih lanjut, lihat Performa pelatihan model profil menggunakan Profiler.
Resource untuk menggunakan TensorFlow di Vertex AI
Untuk mempelajari lebih lanjut dan mulai menggunakan TensorFlow di Vertex AI, lihat resource berikut.
Dari Prototipe ke Produksi: Serangkaian video yang memberikan contoh menyeluruh tentang pengembangan dan deployment model TensorFlow kustom di Vertex AI.
Mengoptimalkan performa pelatihan dengan Reduction Server di Vertex AI: Postingan blog tentang pengoptimalan pelatihan terdistribusi di Vertex AI menggunakan Reduction Server.
Cara mengoptimalkan performa pelatihan dengan TensorFlow Profiler di Vertex AI: Postingan blog yang menunjukkan cara mengidentifikasi hambatan performa dalam tugas pelatihan menggunakan TensorFlow Profiler Vertex AI.
Prediksi batch model kustom dengan pemfilteran fitur: Tutorial notebook yang menunjukkan cara menggunakan Vertex AI SDK untuk Python guna melatih model klasifikasi berbentuk tabel kustom dan melakukan prediksi batch dengan pemfilteran fitur.
Vertex AI Pipelines: Pelatihan kustom dengan Komponen Pipeline Google Cloud bawaan: Tutorial notebook yang menunjukkan cara menggunakan Vertex AI Pipelines dengan Komponen Pipeline Google Cloud bawaan untuk pelatihan kustom.
Meng-hosting bersama model TensorFlow di VM yang sama untuk prediksi: Codelab yang menunjukkan cara menggunakan fitur model hosting bersama di Vertex AI untuk menghosting beberapa model di VM yang sama untuk prediksi online.