Questa pagina spiega l'integrazione di TensorFlow in Vertex AI e fornisce risorse che mostrano come utilizzare TensorFlow su Vertex AI. L'integrazione di TensorFlow in Vertex AI semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.
Eseguire codice nei notebook
Vertex AI offre due opzioni per eseguire il codice nei notebook: Colab Enterprise e Vertex AI Workbench. Per scoprire di più su queste opzioni, consulta scegliere una soluzione per i notebook.
Container predefiniti per l'addestramento
Vertex AI fornisce immagini di container Docker predefiniti per l'addestramento dei modelli. Questi container sono organizzati per framework di machine learning e versioni del framework e includono dipendenze comuni che potresti voler utilizzare nel codice di addestramento.
Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Addestramento distribuito
Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per la formazione con più lavoratori, puoi utilizzare Reduction Server per ottimizzare ulteriormente le prestazioni per le operazioni collettive all-reduce. Per saperne di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.
Container predefiniti per le previsioni
Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire previsioni e spiegazioni da modelli TensorFlow creati all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di previsione HTTP che puoi utilizzare per fornire predizioni con una configurazione minima.
Per scoprire quali versioni di TensorFlow hanno container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Runtime TensorFlow ottimizzato
Il runtime di TensorFlow ottimizzato utilizza ottimizzazioni dei modelli e nuove tecnologie proprietarie di Google per migliorare la velocità e ridurre il costo delle previsioni rispetto ai contenitori di previsione predefiniti standard di Vertex AI per TensorFlow.
Integrazione di TensorFlow Profiler
Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del tuo job di addestramento utilizzando l'integrazione di TensorFlow Profiler di Vertex AI. TensorFlow Profiler ti aiuta a comprendere il consumo di risorse delle operazioni di addestramento in modo da identificare ed eliminare i colli di bottiglia delle prestazioni.
Per scoprire di più su Vertex AI TensorFlow Profiler, consulta Profila le prestazioni di addestramento del modello utilizzando Profiler.
Risorse per l'utilizzo di TensorFlow su Vertex AI
Per scoprire di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.
Prototype to Production: una serie di video che fornisce un esempio end-to-end di sviluppo e deployment di un modello TensorFlow personalizzato su Vertex AI.
Ottimizza le prestazioni dell'addestramento con Reduction Server su Vertex AI: un post del blog sull'ottimizzazione dell'addestramento distribuito su Vertex AI tramite l'utilizzo di Reduction Server.
Come ottimizzare le prestazioni dell'addestramento con TensorFlow Profiler su Vertex AI: un post del blog che mostra come identificare i colli di bottiglia delle prestazioni nel job di addestramento utilizzando Vertex AI TensorFlow Profiler.
Previsione batch del modello personalizzato con filtro delle funzionalità: un tutorial del notebook che mostra come utilizzare l'SDK Vertex AI per Python per addestrare un modello di classificazione tabulare personalizzato ed eseguire la previsione batch con filtro delle funzionalità.
Vertex AI Pipelines: addestramento personalizzato con componenti della pipeline di Google Cloud predefiniti: un tutorial sul blocco note che mostra come utilizzare Vertex AI Pipelines con componenti della pipeline di Google Cloud predefiniti per l'addestramento personalizzato.
Esegui il co-hosting di modelli TensorFlow nella stessa VM per le previsioni: un codelab che mostra come utilizzare la funzionalità di co-hosting dei modelli in Vertex AI per ospitare più modelli nella stessa VM per le previsioni online.