En esta página, se explica la integración de TensorFlow de Vertex AI y se proporcionan recursos que te muestran cómo usar TensorFlow en Vertex AI. La integración de TensorFlow de Vertex AI facilita el entrenamiento, la implementación y la organización de modelos de TensorFlow en producción.
Ejecuta código en notebooks
Vertex AI proporciona dos opciones para ejecutar tu código en notebooks, Colab Enterprise y Vertex AI Workbench. Para obtener más información sobre estas opciones, consulta Elige una solución de notebook.
Contenedores previamente compilados para el entrenamiento
Vertex AI proporciona imágenes de contenedor de Docker compiladas con anterioridad para el entrenamiento de modelos. Estos contenedores están organizados por frameworks de aprendizaje automático y versiones de framework. Además, incluyen dependencias comunes que tal vez quieras usar en tu código de entrenamiento.
Para obtener información sobre qué versiones de TensorFlow tienen contenedores de entrenamiento compilados previamente y cómo entrenar modelos con un contenedor de entrenamiento compilado previamente, consulta Contenedores compilados previamente para el entrenamiento personalizado.
Entrenamiento distribuido
Puedes ejecutar el entrenamiento distribuido de modelos de TensorFlow en Vertex AI. En el entrenamiento de varios trabajadores, puedes usar Reduction Server a fin de optimizar aún más el rendimiento para las operaciones colectivas de reducción total. Para obtener más información sobre el entrenamiento distribuido en Vertex AI, consulta Entrenamiento distribuido.
Contenedores compilados previamente para predicciones
Al igual que los contenedores compilados previamente para el entrenamiento, Vertex AI proporciona imágenes de contenedor compiladas previamente a fin de entregar predicciones y explicaciones a partir de modelos de TensorFlow que creaste dentro o fuera de Vertex AI. Estas imágenes proporcionan servidores de predicciones HTTP que puedes usar para entregar predicciones con una configuración mínima.
Para obtener información sobre qué versiones de TensorFlow tienen contenedores de entrenamiento compilados previamente y cómo entrenar modelos con un contenedor de entrenamiento compilado previamente, consulta Contenedores compilados previamente para el entrenamiento personalizado.
Entorno de ejecución optimizado de TensorFlow
El entorno de ejecución optimizado de TensorFlow usa optimizaciones de modelos y nuevas tecnologías propias de Google para mejorar la velocidad y reducir el costo de las predicciones en comparación con los contenedores de predicción compilados previamente estándar de Vertex AI para TensorFlow.
Integración en TensorFlow Profiler
Entrena modelos de manera más rápida y económica con la supervisión y la optimización del rendimiento de tu trabajo de entrenamiento mediante la integración en TensorFlow Profiler de Vertex AI. TensorFlow Profiler te ayuda a comprender el consumo de recursos de las operaciones de entrenamiento para que puedas identificar y eliminar los cuellos de botella de rendimiento.
Para obtener más información sobre Vertex AI TensorFlow Profiler, consulta Rendimiento del entrenamiento de modelos de perfil con Profiler.
Recursos para usar TensorFlow en Vertex AI
Para obtener más información y comenzar a usar TensorFlow en Vertex AI, consulta los siguientes recursos.
Prototipo a producción: una serie de videos que proporciona un ejemplo de extremo a extremo para desarrollar e implementar un modelo personalizado de TensorFlow en Vertex AI.
Optimiza el rendimiento del entrenamiento con Reduction Server en Vertex AI: una entrada de blog sobre cómo optimizar el entrenamiento distribuido en Vertex AI con Reduction Server.
Cómo optimizar el rendimiento del entrenamiento con TensorFlow Profiler en Vertex AI: una entrada de blog que te muestra cómo identificar los cuellos de botella de rendimiento en tu trabajo de entrenamiento con Vertex AI TensorFlow Profiler.
Predicción de modelos personalizada por lotes con filtrado de atributos: un instructivo de notebook que muestra cómo usar el SDK de Vertex AI para Python a fin de entrenar un modelo de clasificación tabular personalizado y realizar predicciones por lotes con filtrado de atributos.
Vertex AI Pipelines: entrenamiento personalizado con componentes de canalización de Google Cloud compilados previamente: un instructivo de notebook que muestra cómo usar Vertex AI Pipelines con componentes de canalización de Google Cloud compilados previamente para el entrenamiento personalizado.
Co-hosting de modelos de TensorFlow en la misma VM para predicciones: un codelab que muestra cómo usar la función de co-hosting de modelos en Vertex AI a fin de alojar varios modelos en la misma VM para predicciones en línea.