Integrazione di TensorFlow

Questa pagina spiega l'integrazione di TensorFlow in Vertex AI e fornisce risorse che mostrano come utilizzare TensorFlow su Vertex AI. L'integrazione di TensorFlow in Vertex AI semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.

Eseguire codice nei notebook

Vertex AI offre due opzioni per eseguire il codice nei notebook: Colab Enterprise e Vertex AI Workbench. Per scoprire di più su queste opzioni, consulta scegliere una soluzione per i notebook.

Container predefiniti per l'addestramento

Vertex AI fornisce immagini di container Docker predefiniti per l'addestramento dei modelli. Questi container sono organizzati per framework di machine learning e versioni del framework e includono dipendenze comuni che potresti voler utilizzare nel codice di addestramento.

Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Addestramento distribuito

Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per la formazione con più lavoratori, puoi utilizzare Reduction Server per ottimizzare ulteriormente le prestazioni per le operazioni collettive all-reduce. Per saperne di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.

Container predefiniti per le previsioni

Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire previsioni e spiegazioni da modelli TensorFlow creati all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di previsione HTTP che puoi utilizzare per fornire predizioni con una configurazione minima.

Per scoprire quali versioni di TensorFlow hanno container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Runtime TensorFlow ottimizzato

Il runtime di TensorFlow ottimizzato utilizza ottimizzazioni dei modelli e nuove tecnologie proprietarie di Google per migliorare la velocità e ridurre il costo delle previsioni rispetto ai contenitori di previsione predefiniti standard di Vertex AI per TensorFlow.

Integrazione di TensorFlow Profiler

Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del tuo job di addestramento utilizzando l'integrazione di TensorFlow Profiler di Vertex AI. TensorFlow Profiler ti aiuta a comprendere il consumo di risorse delle operazioni di addestramento in modo da identificare ed eliminare i colli di bottiglia delle prestazioni.

Per scoprire di più su Vertex AI TensorFlow Profiler, consulta Profila le prestazioni di addestramento del modello utilizzando Profiler.

Risorse per l'utilizzo di TensorFlow su Vertex AI

Per scoprire di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.