Questa pagina illustra l'integrazione con TensorFlow di Vertex AI e fornisce risorse che mostrano come usare TensorFlow su Vertex AI. Grazie all'integrazione con TensorFlow di Vertex AI, semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.
Esegui codice nei blocchi note
Vertex AI offre due opzioni per eseguire il codice in blocchi note: Colab Enterprise e Vertex AI Workbench. Per saperne di più su queste opzioni, vedi Scegliere una soluzione di blocco note.
Container predefiniti per l'addestramento
Vertex AI fornisce immagini di container Docker predefinite per l'addestramento dei modelli. Questi container sono organizzati in base ai framework di machine learning e alle versioni dei framework e includono dipendenze comuni che si potrebbero utilizzare nel codice di addestramento.
Per sapere quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Addestramento distribuito
Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per l'addestramento di più lavoratori, puoi utilizzare Reduction Server per ottimizzare ulteriormente le prestazioni per ridurre del tutto le operazioni collettive. Per scoprire di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.
Container predefiniti per le previsioni
Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire previsioni e spiegazioni dai modelli TensorFlow che hai creato all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di previsione HTTP che puoi utilizzare per fornire previsioni con una configurazione minima.
Per sapere quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Runtime TensorFlow ottimizzato
Il runtime di TensorFlow ottimizzato utilizza le ottimizzazioni dei modelli e le nuove tecnologie Google proprietarie per migliorare la velocità e ridurre il costo delle previsioni rispetto ai container di previsione predefiniti standard di Vertex AI per TensorFlow.
Integrazione di TensorFlow Profiler
Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del job di addestramento con l'integrazione di TensorFlow Profiler di Vertex AI. TensorFlow Profiler consente di comprendere il consumo di risorse delle operazioni di addestramento, in modo da identificare ed eliminare i colli di bottiglia.
Per scoprire di più su TensorFlow Profiler di Vertex AI, consulta Prestazioni di addestramento del modello di profilo utilizzando Profiler.
Risorse per l'utilizzo di TensorFlow su Vertex AI
Per saperne di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.
Prototype to Production: una serie di video che fornisce un esempio end-to-end dello sviluppo e del deployment di un modello TensorFlow personalizzato su Vertex AI.
Ottimizza le prestazioni dell'addestramento con Reduction Server su Vertex AI: un post del blog sull'ottimizzazione dell'addestramento distribuito su Vertex AI utilizzando Reduction Server.
Come ottimizzare le prestazioni dell'addestramento con TensorFlow Profiler su Vertex AI: un post del blog che mostra come identificare i colli di bottiglia delle prestazioni nel job di addestramento utilizzando Vertex AI TensorFlow Profiler.
Previsione batch di modelli personalizzati con filtro delle caratteristiche: Tutorial sul blocco note che mostra come utilizzare l'SDK Vertex AI per Python per addestrare un modello di classificazione tabulare personalizzato ed eseguire previsioni batch con filtri delle funzionalità.
Vertex AI Pipelines: addestramento personalizzato con i componenti predefiniti di Google Cloud Pipeline: un tutorial blocco note che mostra come utilizzare Vertex AI Pipelines con i componenti predefiniti di Google Cloud Pipeline per l'addestramento personalizzato.
Co-hosting modelli TensorFlow sulla stessa VM per previsioni: un codelab che mostra come utilizzare la funzionalità di co-hosting dei modelli in Vertex AI per ospitare più modelli sulla stessa VM per le previsioni online.