Integrasi TensorFlow

Halaman ini menjelaskan integrasi TensorFlow Vertex AI dan menyediakan resource yang menunjukkan cara menggunakan TensorFlow di Vertex AI. Integrasi TensorFlow Vertex AI memudahkan Anda melatih, men-deploy, dan mengorkestrasi model TensorFlow dalam produksi.

Menjalankan kode di notebook

Vertex AI menyediakan dua opsi untuk menjalankan kode Anda di notebook, Colab Enterprise, dan Vertex AI Workbench. Untuk mempelajari opsi ini lebih lanjut, lihat memilih solusi notebook.

Container bawaan untuk pelatihan

Vertex AI menyediakan image container Docker bawaan untuk pelatihan model. Container ini diatur menurut framework machine learning dan versi framework serta menyertakan dependensi umum yang mungkin ingin Anda gunakan dalam kode pelatihan.

Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.

Pelatihan terdistribusi

Anda dapat menjalankan pelatihan model TensorFlow terdistribusi di Vertex AI. Untuk pelatihan multi-pekerja, Anda dapat menggunakan Reduction Server untuk mengoptimalkan performa lebih baik lagi untuk operasi kolektif dengan pengurangan penuh. Untuk mempelajari pelatihan terdistribusi di Vertex AI lebih lanjut, lihat Pelatihan terdistribusi.

Container bawaan untuk prediksi

Mirip dengan container bawaan untuk pelatihan, Vertex AI menyediakan image container bawaan untuk menyajikan prediksi dan penjelasan dari model TensorFlow yang Anda buat di dalam atau di luar Vertex AI. Gambar ini menyediakan server prediksi HTTP yang dapat Anda gunakan untuk menyajikan prediksi dengan sedikit konfigurasi.

Untuk mempelajari versi TensorFlow mana yang memiliki container pelatihan bawaan dan cara melatih model dengan container pelatihan bawaan, lihat Container bawaan untuk pelatihan kustom.

Runtime TensorFlow yang dioptimalkan

Runtime TensorFlow yang dioptimalkan menggunakan pengoptimalan model dan teknologi Google eksklusif untuk meningkatkan kecepatan dan menurunkan biaya prediksi dibandingkan dengan container prediksi bawaan standar Vertex AI untuk TensorFlow.

Integrasi TensorFlow Profiler

Latih model lebih murah dan lebih cepat dengan memantau dan mengoptimalkan performa tugas pelatihan Anda menggunakan integrasi TensorFlow Profiler Vertex AI. TensorFlow Profiler membantu Anda memahami penggunaan resource operasi pelatihan sehingga Anda dapat mengidentifikasi dan menghilangkan hambatan performa.

Untuk mempelajari Vertex AI TensorFlow Profiler lebih lanjut, lihat Performa pelatihan model profil menggunakan Profiler.

Resource untuk menggunakan TensorFlow di Vertex AI

Untuk mempelajari lebih lanjut dan mulai menggunakan TensorFlow di Vertex AI, lihat resource berikut.